Neue Ansätze der Qualitätssicherung: Diagnose von Performance-Problemen

Größe: px
Ab Seite anzeigen:

Download "Neue Ansätze der Qualitätssicherung: Diagnose von Performance-Problemen"

Transkript

1 Neue Ansätze der Qualitätssicherung: Diagnose von Performance-Problemen André Kemena Tribenstraße 10, Herford, Nordrhein-Westfalen, Deutschland Universität Paderborn, Paderborn, Nordrhein-Westfalen, Deutschland Zusammenfassung Sommersemester 2009 Performance von Software wird in DIN ISO 9126 durch das Qualitätsmerkmal Effizienz und dessen Charakteristiken Zeitverhalten und Verbrauchsverhalten repräsentiert, wird aber dennoch oft im Bereich der Qualitätssicherung nicht oder erst in späten Entwicklungsphasen berücksichtig. Analog zur Vernachlässigung anderer Qualitätsmerkmale birgt dies das Risiko erhöhter Kosten bei spätem Auffinden und Beheben von Problemen. In dieser Seminararbeit soll eine Einführung und erste Übersicht über die Thematik der Software-Performance-Tests und -Diagnose gegeben und anhand eines Beispiels der aktuelle Stand von Test-Tools mit dessen Chancen und Risiken bzgl. der Diagnose gegeben werden. Keywords: Software Performace Test, Software Performance Diagnose, Leistung, Leistungsbewertung, Leistungstest, Testtool 1 Einleitung Performance (engl. für Durchführung, Leistung) wird im Allgemeinen als Leistungsfähigkeit verstanden. In der Datenverarbeitung und Kommunikationstechnik wird Performance häufig auch etwas spezieller mit Übertragungsgeschwindigkeit, Echtzeitverhalten, Gütemerkmal, Verfügbarkeit, Durchsatz oder ähnlichen Leistungsparametern gleichgesetzt. Bezogen auf Software im Sinne von Benutzeranwendungen trifft der Ausdruck Echtzeitverhalten wohl am ehesten zu. Ein gutes Echtzeitverhalten entspricht dabei einer subjektiven Wahrnehmung des Benutzers bzgl. einer gefühlt angemessenen Bearbeitungsdauer durch die Software. Der Benutzer darf sich also in Arbeitsabläufen nicht durch übermäßig lange, wahrgenommene Unterbrechungen gestört oder aufgehalten fühlen. Das bedeutet z.b., dass Benutzer keine Wartepausen ohne eine Anzeige der aktuell durch die Software durchgeführten Operationen abwarten muss, oder auch, dass er zeitnahe (Fehler-) Rückmeldungen zu durchgeführten Aktionen erhält. Warum Performance-Tests Die Entwicklungen der letzten Jahre zeigt eindrucksvoll, dass Software in nahezu allen Bereichen, insbesondere auch Geschäftsprozessen, eine immer wichtigere und umfassendere Rolle einnimmt. So werden häufig ganze Geschäftsprozesse

2 2 bzw. Geschäftsprozessketten automatisiert und, weitestgehend automatisch, über Software abgewickelt. Als Beispiele können Onlineshops mit angebundenen Warenwirtschaftssystemen, Flugreservierungen, Online-Routenplaner, Banking-Portale, Bilderservices, Callcenter-Software und viele mehr angeführt werden. Gerade bei Online-Systemen stellt Überlastung von Diensten ein Risiko dar: so wird ein eventueller Kunde eines Online-Shops zu Alternativen und damit zu Angeboten der Konkurrenz wechseln, wenn inakzeptable Ladezeiten Kaufvorgänge behindert. Als Extrema stellen hier zeitweise Ausfälle von Diensten durch Überlastung einen sofortigen Einbruch von Geschäftsprozessen und damit Umsätzen dar. Zudem ist der PC aus heutigen Firmen-Büros kaum noch wegzudenken. Software wird dort genutzt, um Mitarbeiter durch z.b. Office-Software, Dokumentenmanagementsysteme und spezielle Softwareentwicklungen zu unterstützen, indem wiederkehrende Prozesse vereinfacht, optimiert, und Informationen bzw. Inhalte für spätere Aufgaben bereitgestelt werden. Auch hier stellen durch Überlastung verursachte Funktionseinschränkungen von Diensten geschäftsgefährdende Risiken dar. Die Qualität von eingesetzter Software ist somit oft ein kritischer Faktor für einen ordnungsgemäßen und optimalen Geschäftsbetrieb. Die Beanspruchung von Zeit- und Systemressourcen der eingesetzten Software wird jedoch oft recht stiefmütterlich im Kontext von Qualität betrachtet. Ist im Bereich eingebetteter Systeme dieser Faktor seit jeher durch z.b. feste Angaben von Zeitschranken für Komponenten ein essentieller Bestandteil von Qualitätsprüfungen, so wird er außerhalb dieses Bereichs oft vernachlässigt. Die Qualität von Software wird allgemein meist weniger an zeit- und ressourcensparender Umsetzung, sondern vielmehr an Gestaltungsrichtlinien, aufgeführt z.b. in der Norm DIN [Referenz?], festgemacht: Aufgabenangemessenheit Selbstbeschreibungsfähigkeit Steuerbarkeit Erwartungskonformität Fehlerrobustheit Es fällt auf, dass Gestaltungsrichtlinien mit direktem Bezug auf Performance nahezu fehlen. So lässt sich zwar in die Richtlinien Aufgabenangemessenheit, Selbstbeschreibungsfähigkeit, Steuerbarkeit und Erwartungskonformität eine zeitnahe Umsetzung, Reaktion bzw. Rückmeldung von Software hineininterpretieren, konkrete Vorgaben sucht man jedoch vergebens. Weiter wird in der Norm DIN ISO 9126 das Qualitätsmerkmal Effizienz durch die Eigenschaften Zeitverhalten und Verbrauchsverhalten charakterisiert, direkte Vorgaben für die Praxis fehlen aber auch hier. Dies begründet sich vermutlich vor allem durch die Schwierigkeit, Performanz von Software allgemein zu definieren bzw. zu beurteilen. Sucht man heute nach allgemeinen, durch die Industrie entwickelte und anerkannten Richtlinien bzw. Performance-Standards, welche Ausgangspunkte zur Bewertung von guter bzw. schlechter Performance liefern, so ist dies vergebens: es gibt derzeit keine solchen Standards! Ausnahme stellen derzeit erste, informelle Ansätze im

3 3 Kontext von Browser-Applikationen dar, z.b. für die maximale bzw. minimale Zeit, die eine Seite zum Laden und für die Darstellung braucht. 2 Grundlagen für Messungen Um im Folgenden über Performance von Software diskutieren zu können, benötigen wir ein gewisses Vokabular, wie zum Beispiel Metriken und Kennzahlen. Es stellt sich in diesem Zusammenhang auch die Frage: Wie lässt sich Performance von Software beschreiben, messen und bewerten? 2.1 Indikatoren Um Messungen von Performance durchführen zu können, ist es zunächst wichtig festzulegen, was und wie gemessen werden soll. Weiter muss entschieden werden, welche Werte zur Messung herangezogen, und wie diese in späteren Bewertungen genutzt werden (wofür). Diese Werte werden in der Literatur, ähnlich zu den Fachbegriffen aus der Betriebswirtschaftslehre, oft als sogenannte Maßzahlen, Kennzahlen, oder auch Indikatoren, englisch Indicators oder Key Performance Indicators (KPI) bezeichnet. Bezüglich der Fokussierung der Performance- Betrachtung auf Dienstverfügbarkeit bzw. effizienter Ausführung lassen sich diese Indikatoren nach Ian Molyneaux [1] wie folgt gruppieren und charakterisieren: effizienz-orientierte Indikatoren Datendurchsatz Ressourcennutzung service-orientierte Indikatoren Verfügbarkeit Antwort- bzw. Reaktionszeit (System-bezogen) Effizienz-orientierte Indikatoren charakterisieren die Art und Weise der Nutzung und des Bedarfs von Ressourcen durch die Anwendung. Service-orientierte Indikatoren hingegen fokussieren die Problematik der effektiven Verfügbarkeit von Anwendungen oder Diensten für den Endbenutzer. Sie bewerten Performance also anhand von Maßzahlen bezüglich der Zeit, die der Benutzer warten muss und keine weiteren Aktionen in der Anwendung durchführen kann. Idealerweise sollten all diese Indikatoren zusammen genutzt werden, um Performance- Eigenschaften zu analysieren. In der Praxis wird jedoch oft gerade der Indikator Antwortzeit vernachlässig. Dies kann Ergebnisse von Performance-Test erheblich verfälschen. Um nun eine möglichst genaue Bewertung und ggf. Optimierung der Benutzer-Produktivität vornehmen zu können ist zunächst zu klären, wann systembezogenene Antwort- bzw. Reaktionszeiten als gut oder schlecht zu bewerten sind, also wie gewonnene Maßzahlen zu interpretieren sind. Hierzu lassen sich die Ergebnisse der Untersuchungen von Martin [?] anhand von textbasierten Anwendungen als Faustregeln zur Bewertung von Antwortzeiten t heranziehen:

4 4 Antwortzeit t > 15 Sekunden Nicht zumutbar bei oft wiederkehrenden, kleinen und insbesondere konversationsartigen Arbeitsvorgängen. Antwortzeit 4 < t 15 Sekunden Bei konversationsartigen Arbeitsvorgängen wird durch Beanspruchung des Kurzzeitgedächtnisses der Benutzer im Arbeitsfluss gestört, bei Anwendungen mit weniger zeitabhängigen und weniger Konzentration erfordernden Arbeitsschritten ggf. noch vertretbar. Antwortzeit 2 < t < 4 Sekunden Benutzer wird bei Arbeitsvorgängen, die hohe Konzentration erfordern, im Arbeitsfluss gestört. Abhängig von der Art des Vorgangs ggf. noch tolerierbar. Antwortzeit t < 2 Sekunden Allgemein als obere Zeitschranke zur Förderung mentaler Rückkopplung anzustreben. Keil [15] führt in seinen Ausführungen zwar hierzu keine Zeitschranken an, betont aber die Relevanz der Kopplung von Wahrnehmungs- und Handlungsraum mit Handlungsabschluß und Systemzuständen. Antwortzeit t < 1 Sekunde Anzustreben für Gedanken-intensive Arbeitsabläufe wie Text- oder Bildverarbeitung. Antwortzeit t < 1 Sekunde Besonders im Bereich Simulation und Steuerung, aber auch für essentielle Interaktionen wie Eingabe über Tastatur- und 10 Maus sind Reaktionszeiten dieser Größenordnung anzustreben. Mit Hilfe dieser Richtlinien und der Summe der oben angeführten Indikatoren ist es nun möglich, Performance-kritische Faktoren zu erkennen und für gemessene bzw. gegebene Maßzahlen Bewertungen durchzuführen. Ist Software zu testen, so ist nun das Kernproblem, festzustellen, welche Faktoren entscheidenden Einfluss auf das jeweilige Leistungsverhalten ausüben. Hierzu sind Kriterien bzw. Ziele zu benennen, die als Test- und Entscheidungsgrundlage für Code-Änderungen dienen sollen. Diese Ziele werden auch als Key Performace Targets bezeichnet. Eine Gruppierung dieser KPI kann nach Molyneaux[1] beispielsweise wie folgt vorgenommen werden: Leistung im Sinne von Schnelligkeit Verfügbarkeit (availability / uptime) Verhalten bei Nebenläufigkeit (concurrency) Anwortzeit (response time)

5 5 Leistung im Sinne von Kapazität- / Ressourcen-Nutzung Netzwerk-Nutzung Server-Nutzung Doch wie erhebt man nun in der Praxis die notwendigen Messdaten? Die Erstellung und Auswertung einzig anhand von anwendungspezifischen Log-Dateien kann ein erster Schritt zur Analyse sein. In der Praxis wird dies jedoch im Allgemeinen in Softwareentwicklungsplänen nicht oder nur am Rande berücksichtigt, und damit in Hinblick auf aussagekräftige Daten oft nicht konsequent genug betrieben. Weiter stellt die Auswertung der Log-Dateien ohne weitere Hilfsmittel einen nicht zu unterschätzenden Arbeitsaufwand dar. Es gibt jedoch eine Vielzahl an, mitunter frei verfügbaren, Testtools, die sich bzgl. der verwendeten Test-Architekturen und ihrer Zielsetzung unterscheiden 1. Da die Eigenschaften der zu testenden Software ausschlaggebend für die Wahl eines oder mehrerer Testtools sind, fällt oft bereits anhand der, in den Tools verfügbaren, Testarten die Entscheidung. Die am meisten verbeiteten Testarten werden nun kurz beschrieben. 2.2 Testarten In der Praxis haben sich, abhängig von der jeweils zu testenden Software, verschiedene Arten von Tests profiliert, von denen die bekanntesten und am häufigsten angewandten an dieser Stelle kurz beschrieben werden. Baseseline Test Der Baseline Test ist als erster Einstiegspunkt und als Grundlage für Vergleiche mit weiteren Testarten anzusehen. So wird je Durchlauf in einem gewissen Zeitrahmen mit jeweils nur einem (virtuellen) Anwender ein festgelegter Arbeitsablauf bearbeitet und gemessen. Dieser Ablauf setzt sich aus einer oder mehreren Transaktionen (engl. transactions) zusammen. Transaktionen sind in diesem Zusammenhang bei sogenannten fat clients Prozesse oder Abläufe, die eine Speicherung oder Änderung der Daten ausführen. Bei thin clients liegt der Fokus hierbei eher auf der Übertragung und Speicherung auf Server-Seite. In späteren Vergleichen mit Messdaten, beispielsweise aus Load-Tests, können dann Aussagen über das Leistungsverhalten der Software mit steigender (paralleler) Anwenderzahl und Transaktionszahl getroffen werden. Load Test Der sogenannte Load Test ist der klassische Performance-Test. Bei diesem Test wird die zu testende Software sukzessive bis zu einem festgelegten Ziel, meist eine gewisse Zahl gleichzeitiger Anwender, getestet. Der Unterschied zu Tests wie dem Soak Test ist, dass beim erreichen des vorgegebenen Ziels nicht darüber hinaus getestet wird. Dieser Test bedingt daher eine gute Schätzung der später im realen Anwendungsfall vorhandenen Anwenderzahlen. In diesem Test 1 Eine beispielhafte Liste von Testtools ist im Anhang zu finden

6 6 werden auch besonders die Antwortzeiten der Benutzer und des bzw. der Anwendungssysteme (i.e. Server) betrachtet. Die Last wird bei diesem Test entweder durch ein oder mehrere virtuelle Maschinen, Server oder Arbeitsplatzrechner erzeugt, indem z.b. Anwender mit typischen Arbeitsschritten simuliert werden. Bei der späteren Analyse ist in diesem Zusammenhang insbesondere bei höherer erzeugter Last darauf zu achten, dass Stress Test Der Unterschied des Stress Test zum Load Test ist die Zielsetzung, Software und Infrastruktur derart zu belasten, dass es zu fehlerhaftem Verhalten, Nicht-Verfügbarkeit von Diensten oder Absturz von Komponenten bzw. Diensten kommt. Dieser Test wird u.a. besonders in Zusammenhang mit Netzwerk-abhängiger Software angewand, um maximale Anwenderzahlen, maximale Netzwerklast und ähnliches zu ermitteln. Diese Art von Test zeichnet sich dadurch aus, dass durch sie sowohl die Leistung im Sinne von Geschwindigkeit gemessen als auch die Kapazitätsgrenzen der Testumgebung ermittelt werden. Gerade für Software, die in grossen Netzwerken (insbesondere dem Internet) Verwendung findet, ist dieses Wissen um Kapazitätslimits unverzichtbar, da eine realitätsnahe Einschätzung der Anwenderzahlen hier oft misslingt. Weiter können in der Startphase des Softwareeinsatzes durch Beobachtung von Nutzungszahlen und der durch Stress Tests vorliegenden Kapazitätslimits ggf. rechzeitig Vorkehrungen getroffen und Ausfallzeiten verringert bzw. vermieden werden. Soak / stability test Das Ziel von Soak Tests (soak: engl. für aufweichen) ist, Problemfälle zu erkennen, die durch Kummulation einzelner Effekte und erst nach einer gewissen Laufzeit auftreten. Mit ihrer Hilfe ist es beispielsweise möglich, Speicherlecks (engl.: memory leak) zu entdecken, also eine Reservierung von Speicher durch Prozesse, die aber weder rückgangig gemacht noch genutzt werden kann. Diese Art von Fehlern wird häufig nur durch Kummulation entdeckt, also wenn eine Summe von Prozessen eben diese fehlerhaften Software-Stati erzeugt. Symptome während bzw. am Ende der Tests sind auch hier eine Verlangsamung der Reaktionszeit bzw. ein Ausfall der Software. Bei Client-Server-Architekturen sind Diagnosen sowohl von Seiten des bzw. der Clients als auch auf Seite des oder der Server notwendig. Smoke test Smoke Tests werden typischerweise nach Code-Änderungen durchgeführt, also auch im Anschluss an vorrausgegangene Performance-Tests. Diese Art von Test bezieht sich nur auf die geänderten Fragmente bzw. Komponenten des Codes, die durch die Code-Änderungen direkt oder indirekt betroffen sind. Isolation test Isolation Tests werden zur tieferen bzw. wiederholten Analyse von Code-Fragmenten genutzt, die bekanntermaßen Performance-Probleme hervorrufen.

7 7 Aufbauend auf diese Tests kann es sinnvoll sein, in der Testphase je nach Software-Anforderungen bzw. Art die Tests einerseits mehrmals für gleichartige Testprofile (engl.: injection profiles) und Daten durchzuführen. Der Vorteil hierbei liegt ganz klar bei der direkten Vergleichbarkeit des Leistungsverhaltens nach Korrekturen. Andererseits kann es interessant sein, die Veränderungen von Testergebnissen anhand kontrolliert modifizierter Daten- bzw. Testprofile zu ermitteln. Die wichtigsten Injection profiles sind: Big Bang / Constant In diesem Test starten alle (ggf. virtuellen) Benutzer zur gleichen Zeit und arbeiten simultan, aber nicht zwingenderweise synchron, Transaktionen ab. Hierdurch wird eine realitätsnähere Situation erreicht. Ramp-up (with step)/ Ramp-down (with step) Diese Variante startet mit einem (virtuellen) Benutzer und fügt nach und nach weitere hinzu (Ramp up). Sollen Leistungsdaten für gewisse Zahlen aktiver Benutzer genauer getestet werden, so wird bei festgelegten Benutzerzahlen das Hinzufügen weiterer Nutzer pausiert(ramp up with step) und mit der jeweils aktuellen Benutzerzahl eine vorgegebene Zeit gemessen und protokolliert. Dies ist zum Beispiel sinnvoll, wenn sich später alle Mitarbeiter einer Firma zu Beginn eines Arbeitstages einloggen und eingeloggt bleiben. Anschließend wird entweder die Richtlinie Ramp-up weiter verfolgt und somit weitere Benutzer hinzugefügt, oder es wird eine Kombination aus Ramp-up(with step) und Ramp-down (with step) fortgeführt. Ramp-down verringert analog die Benutzerzahlen und simuliert Benutzer, die sich beliebig am System an und abmelden. Peaks Dieser Test ist eine leichte Abwandlung des ConstantTest, bei dem periodisch entweder mit einer maximalen virtuellen Nutzerzahl gleichzeitig oder einer vorgegebenen Minimalzahl getestet wird. Delayed start Delayed start wird mit einer der vorherigen Varianten von Injection profiles kombiniert. Der Unterschied besteht einzig in der Verzögerung des Starts von Test-Scripten oder Teilen dieser. Hierdurch wird die dynamik der Simulation weiter verbessert. 2.3 Testtool-Architekturen Automatische Testtools, sogenannte Profiler, besitzen meist eine Vielzahl Komponenten, die auf einzelne Test-Zielsetzungen zugeschnitten sind. Üblicherweise

8 8 werden Profiler genutzt, um durch Zählen bzw. Messen mit Hilfe der zuvor beschriebenen Test-Arten Zahlen bzw. Maße bezüglich der Aufrufe oder Durchläufe von Codebereichen wie Funktionen oder Klassen zu erheben. Zu den bekanntesten zählen hierbei: Scripting Modul Test Management Modul Load Injector(s) Analysis Modul Scripting Module werden typischerweise zur Erzeugung von zu simulierendem Nutzerverhalten genutzt. Dies kann einerseits durch manuelle Erzeugung des Testers oder auch unter Verwendung von Makro-ähnlichen Aufzeichnungsassistenten erfolgen 2. Mit ihrer Hilfe werden hauptsächlich verschiedenste Granularitätsstufen von Reaktions- bzw. Antwortzeittest durchgeführt. Test Management Module dienen der Erzeugung und Simulation von Load-Test-Session unter Verwendung von Scipts und/oder ein oder mehr Load Injector(s). Load Injectors erzeugen, wie der Name suggeriert, eine bestimmte Last, unter der das Verhalten der zu testenden Software dann analysiert wird. Analysis Module schliesslich bieten Möglichkeiten zur Analyse der in Test erzeugten Informationen. Diese verwenden Module generieren meist Reports, die dann zusätzlich tabellarische oder graphische Reports visualisiert werden. 3 Diagnose Mit den zuvor genannten Indikatoren, Test-Arten und Testtool-Architekturen stehen nun die wichtigsten Grundlagen und Tool-Arten zur Messung von Performance zur Verfügung. Im Folgenden wird von dem Fall ausgegangen, dass eine Software bzgl. ihrer Performance-Eigenschaften getestet werden soll. Ein Analyse-Tool wurde bereits gewählt bzw. ist fest vorgegeben (z.b. durch vorhandene Lizenzen der ausführenden Firma). Diverse Tests werden bzw. wurden durchgeführt und protokolliert bzw. werden live zur Laufzeit analysiert. Hierzu bieten eine Vielzahl der Tools Visualisierung, z.b. Tabellen oder Graphen, an. Es gilt nun, anhand der gewonnenen Daten Performance-Probleme zu identifizieren und zu lokalisieren. Die Schwierigkeit bei der Diagnose von Performanceproblemen stellt sich an dieser Stelle durch die Lokalisierung der Problemstellen(engl.: bottlenecks) im Code dar (engl.: root-cause analysis). So erleichtern die Visualisierungen der Test-Tools zwar das Auffinden eventueller Problemstellen, die Abhängigkeit der Messdaten von den Eigenschaften und der Struktur der Test-Daten (und damit der vorrausgehenden Bestimmgung der KPI) und der Test-Art sowie der durch den Tester vorgegebenen Checkpoints und damit der Betrachtungsausschnitte erschwert jedoch eine vollautomatisierte Identifizierung. 2 Beispiel: NeoLoad [2]

9 9 3.1 Interpretation von Testergebnissen Abbildung 1 zeigt in einer typischen Visualisierung die Ergebnisse eines Performancetests. Getestet wurden hier die System-Antwortzeiten bei Ausführung Abbildung 1. Molyneaux: Testvisualisierung mit Korrelation von (Checkpoint- ) Transaktionen-Anwortzeit und Anzahl gleichzeitiger Benutzer eines Load-Test mit Ramp-Up. Die x-achse bezeichnet die verstrichene Zeit in Sekunden mit Zeitpunkt 0 als Test-Start, während die y-achse in Korrelation mit der Zahl der virtuellen Benutzer (rechts) die Zeit darstellt, die das System zum Antworten benötigt. Wie erwartet erhöht sich mit steigender Benutzerzahl die Anwortzeit des Systems. Bei etwas genauerer Betrachtung fällt der Zeitpunkt nahe 1500 Sekunden auf, bei dem eine deutliche Spitze der transaction response time zu erkennen ist, die auf einen Performance-Einbruch hindeutet. Ohne weitere Informationen wäre davon auszugehen, dass das System bei einer Nutzerzahl von ca. 400 gleichzeitigen Benutzern das maximale Potential erreicht hat. Es müssten also entweder Optimierungen in der Software vorgenommen werden, z.b. durch genauer Analyse einzelner Transaktionen der Benutzer und Identifizierung kleinerer Last-Extrema, oder nach Möglichkeit Infrastruktur- bzw. Hardwareaufrüstung vorgenommen werden. Generell würde man jedoch erwarten, dass mit gleichmäßig steigender Benutzerzahl die transaction response time ebenfalls relativ gleichmäßig ansteigt. Wird zusätzlich zu den bisherigen Informationen eine Maßzahl bzgl. der Antwortzeiten einzelner, durchlaufener Checkpoints hinzugezogen (in der Graphik Checkpoint response times ), so deutet dies entgegen der vorherigen Folgerungen nicht auf eine Ursache seitens der Anzahl virtueller Nutzer, sondern vielmehr auf eine erhöhte Anzahl durchlaufener Checkpoints und damit erhöhten Aufwand durch Änderung der Art der Testdaten hin. In

10 10 diesem Fall war die Ursache laut Molyneaux eine Reihe ungültiger virtueller Benutzer-Logins in den injection profiles, die erhöhte Serverlast erzeugt haben. Dieses Beispiel verdeutlicht die Relevanz der in Tests genutzten Konfigurationen, der Qualität und Art der Test-Daten, der Plazierung von Checkpoints und im Allgemein die Problematik der Interpretation von Ergebnissen. Eine konkretere Beschreibung einer möglichen Vorgehensweise zur Identifizierung von Bottlenecks wird nun in einem analogen Testfall mit dem Test-Tool NeoLoad der Firma Neosys 3 beschrieben. Beispiel: Load-Test mit NeoLoad Getestet wird wie bei Molyneaux ein thin-clientsoftwareprodukt, in diesem Fall eine Webshop-Applikation, die auf der Client-Seite nur einen üblichen Browser vorraussetzt. Auf Server-Seite wird ein Linux-System mit einem Apache-Serverdienst in Kombination mit Tomcat und einer MySQL-Datenbank genutzt. Zu diesem Zweck werden als Profile für die virtuellen Benutzer zum einen ein Profil, dass als Transaktionen den Login- Vorgang, das Ablegen von Artikeln im Warenkorb sowie den Bestellvorgang mit anschließendem Logout beinhaltet erzeugt. Als ein weiteres Profil wird ein Standard-Besucher des Shops erstellt. Beides wird in dem integrierten Scriptingbzw. load injector Modul konfiguriert. Die Transaktionen für dieses Profil beinhalten lediglich den Besuch diverser Shop-Seiten. Diese Profile werden insofern dynamisiert, als für Erzeugung von Profil-Instanzen die Login-Profile, die zu besuchenden Seiten sowie die zu kaufenden Produkte durch Variablen ersetzt werden. Dies ist wie bereits erwähnt ein entscheidender Faktor für eine möglichst realitätsnahe Simulation. Um in der Auswertungsphase später eine einfache Möglichkeit zur Lokalisierung von Performance-kritischem Code zu ermöglichen, bietet NeoLoad hier zusätzlich die Möglichkeit, in dem Scripting Modul Code-Bereiche mit sogenannten Container zu gruppieren. Diese Container werden dann später angezeigt, wenn Seiten bzw. Code in ihnen durch Monitore beobachtete Schwellwerte überschreiten bzw. wenn in ihnen Fehler auftreten. Für diesen Test werden die Ressourcen, welche für den Login zuständig sind, bei dem Profil des sich einloggenden und kaufenden virtuellen Benutzers in einen Container Login gelegt. NeoLoad bietet wie die meisten Test-Tools die Verwendung eines Test-Managers an, der die Möglichkeit zur einfachen Erzeugung von Test-Szenarios ermöglicht. In diesem Szenario wird als Test-Art ein Load-Test mit Ramp-up definiert. Weiter können hier diverse Monitor-Komponenten aktiviert werden, beispielsweise ein Tomcat memory usage monitor. Dieser erlaubt das Überwachen des von der Java Virtual Machine maximal, durchschnittlich und aktuell genutzten Speichers. Diese Überwachung wird aktiviert, um später Aussagen über die Kapazitätsauslastung treffen und Speicherlecks ggf. lokalisieren zu können. Während der Ausführung des Load-Test ist es bereits möglich, die Entwicklung der beobachteten Daten zu verfolgen. An dieser Stelle betrachten wir jedoch das Endergebnis des kompletten Testlaufs. Schon in der ersten Test- Zusammenfassung fällt in der unteren grafischen Übersicht (s.h. Abbildung 2) 3 Tutorial-Videos zur Erstellung, Durchführung und Auswertung von Tests:[2]

11 11 Abbildung 2. NeoLoad: Test-Zusammenfassung über Response Times in Korrelation zu Benutzerzahlen im zeitlichen Verlauf auf, dass ca. 1 Stunde und 5 Minuten nach Testbeginn die Hits per second (Seitenaufrufe pro Sekunde) drastisch abfielen und zeitgleich die response time stark anstieg. In der oberen grafischen Darstellung ist kurz nach diesem Zeipunkt ein erstes Auftreten und Ansteigen von Fehlern zu erkennen. Hieraus lässt sich bereits auf ein Performance-Problem schließen. NeoLoad unterstützt den Tester an dieser Stelle durch eine Auflistung der fünf am häufigsten aufgetretenen Fehler ( Hot Spots ), average response times und top response times inklusive der verursachenden Seiten. Darüber hinaus wird eine komplette Liste der aufgetretenen Fehler zur Verfügung gestellt. In diesem Beispiel tritt ein sogenannter interner Server-Fehler (Fehlercode 500) auf, der häufig aus dem Erreichen von Speicherlimits resultiert (Hintergrundwissen Statuscodes 4 ). In NeoLoad lässt sich die Ursache von Fehlern und Problemen durch die zuvor angelegten Container (ähnlich den sonst so genannten Checkpoints) näher eingrenzen, hier also durch den Login-Container. NeoLoad zeigt für diese ebenfalls in der Zusammenfassung eine Übersicht über minimal, average und maximal response times, Fehler usw. Wir betrachten nun unter dem Tab values die Protokollierten Werte (s.h. Abbildung 3). Hier fällt wieder die in der Test- Zusammenfassung bereits erkannte Problemstelle nach Ablauf von ca. 1 Stunde und 5 Minuten auf. Ab diesem Zeitpunkt treten erste Fehler für den Container Login auf. Um der Ursache weiter auf den Grund zu gehen, wird auf die Schaltfläche Graphs gewechselt. Aktiviert man die Anzeige für die aufgetretenen Fehler, so bestätigt dies die Vermutung eines Speicherlecks. Der Java Virtual 4 HTTP-Statuscodes sind definiert durch RFC 2616[5] (sowie RFC 2518, RFC 2817, RFC 2295, RFC 2774, RFC 4918) [4]

12 12 Abbildung 3. NeoLoad: Fehler-Anzeige für Container Login Machine Garbage Collector benötigt in diesem Fall zuviel Zeit, um alte Speichereinträge durch neue, durch Anfragen benötigte Einträge zu ersetzen. (s.h. Abbildung 4).

13 13 Abbildung 4. NeoLoad: Monitor-Ergebnisse inkl. Tomcat (Java Virtual Machine-Lastanzeige) In diesem Fall wäre als Maßnahme eine Vergrößerung des auf dem Server durch Tomcat maximal reservierbaren Speichers ein sinnvoller Lösungsansatz. Dieses Beispiel zeigt wie jenes von Molyneaux, wie gravierend sich ein gutes Test-Design auf Testergebnisse auswirkt. Hier führte eine feingranulare Auswahl von Containern (Checkpoints) in Kombination mit einer realitätsnahen Simulation von Benutzern (mit und ohne Berücksichtigung von Login und verschiedenen Benutzerinteressen) zum Ziel. Weiter zeigt dieses Beispiel, wie wichtig im eigentlichen Diagnose-Schritt immernoch der Faktor Tester ist. Nur durch genaue Analyse der durch das Test-Tool gemessenen und protokillierten Daten konnte Anhand der Visualisierung ein Performance-Problem identifiziert werden.

14 14 4 Zusammenfassung Das Ziel dieser Arbeit war es, einen ersten Einblick in das Problemfeld der Diagnose von Software-Performance zu geben. Nach einer grundlegenden Einführung wurde die Sensibilität von Performance-Tests und deren Diagnosen bezüglich des Testdesigns, der Testarchitektur, der Auswahl des Testtools und insbesondere auch der Testdaten und -durchführung herausgearbeitet. Hierzu wurde beispielhaft für Server-orientierte Anwendungen praxisnah anhand des repräsentativ ausgewählten Tools NeoLoad ein Lasttest mit anschließender Diagnose der Protokolle und Meßdaten durchgeführt. Dabei wurde gezeigt, dass aktuelle Werkzeuge eine Vielzahl hilfreicher Funktionen und Möglichkeiten zur Messung von Performance, der Aufbereitung von Messdaten sowie das Auffinden von Performance- Problemen bieten. Durch unterschiedliche Definitionsmöglichkeiten von Performance und die Abhängigkeit der Performance-Tests von Durchführungszeitpunkt im Entwicklungsprozess, Eigenschaften der zu testenden Software und eingesetzten Hardware können diese Werkzeuge aber nur unterstützen. Zu groß ist noch der Faktor Mensch in Form des durchführenden Testers, der seine gesammelten Erfahrungen durch gute Testdaten-Wahl, ein gutes Testdesigns, konsequente Test-Wiederholungen und ein solides Hintergrundwissen in die Diagnose einbringen muss. Es ist jedoch zu erwarten, dass Testwerkzeuge in Zukunft weitere Fortschritte gerade in der Auswertung und Diagnose von Performance-Problemen machen werden. Aufgrund des Umfangs der Problemstellung kann diese Arbeit nur einen Einstieg in diese Thematik darstellen. Der interessierte Leser findet im Literaturverzeichnis Einstieg in weiterführende Literatur[3] und zu Werkzeugen zu diesem Thema.

15 15 Literatur 1. Ian Molyneaux, The Art of Performace Testing, O Reilly, ISBN , Januar 2009, Edition 1 2. NeoLoad Load-Testing-Tool, Tool-Demo und Advanced Demo Video, URL 3. SoftwareQATest.com, Allgemeine Tool-Übersicht URL: Web Test Tools URL: 4. Definition HTTP-Statuscodes URL Statuscode 5. Hypertext Transfer Protocol HTTP/1.1 URL 6. Andreas Spillner, Thomas Roßner, Mario Winter, Tilo Linz, Praxiswissen Softwaretest - Testmanagement, dpunkt.verlag, ISBN , Christof Ebert, Best practices in software measurement, Martin Shepperd, Foundations of software measurement, Jirk Stolze, Diplomarbeit: Performancetests und Bottleneck-Analyse in Multischichtarchitekturen, URL: 10. Connie U. Smith, Introduction to Software Performance Engineering: Origins and Outstanding Problems, 7th International School on Formal Methods for the Design of Computer, Communication and Software Systems, SFM 2007, Bertinoro, Italy, May 28-June 2, 2007,LNCS Marcel Alper, Professionelle Softwaretests, Boris Beizer, Software system testing and quality assurance 13. Martin, Forrester Research, Keil, Vorlesung Softwareergonomie, hyperskript 1999, Universität Paderborn

Neue Ansätze der Qualitätssicherung: Diagnose von Performance-Problemen

Neue Ansätze der Qualitätssicherung: Diagnose von Performance-Problemen Neue Ansätze der Qualitätssicherung: Diagnose von Performance-Problemen André Kemena Tribenstraße 10, 32052 Herford, Nordrhein-Westfalen, Deutschland Universität Paderborn, 33100 Paderborn, Nordrhein-Westfalen,

Mehr

Do 1.1b. KPI-Monitoring und Performanceengineerings - Widerspruch oder Ergänzung? Klaus-Dieter Jäger

Do 1.1b. KPI-Monitoring und Performanceengineerings - Widerspruch oder Ergänzung? Klaus-Dieter Jäger Do 1.1b January 26-30, 2009, Munich, Germany ICM - International Congress Centre Munich KPI-Monitoring und Performanceengineerings - Widerspruch oder Ergänzung? Klaus-Dieter Jäger KPI-Monitoring und Performanceengineerings

Mehr

Last- und Stresstest. Überblick. Einleitung / Motivation Stresstest Lasttest Tools The Grinder Zusammenfassung

Last- und Stresstest. Überblick. Einleitung / Motivation Stresstest Lasttest Tools The Grinder Zusammenfassung Methoden und Werkzeuge zur Softwareproduktion WS 2003/04 Karsten Beyer Dennis Dietrich Überblick Einleitung / Motivation Stresstest Lasttest Tools The Grinder Zusammenfassung 2 Motivation Funktionstest

Mehr

Echtzeitverhalten durch die Verwendung von CPU Stubs: Eine Erweiterung von Dynamic Performance Stubs. Echtzeit 2009

Echtzeitverhalten durch die Verwendung von CPU Stubs: Eine Erweiterung von Dynamic Performance Stubs. Echtzeit 2009 Echtzeitverhalten durch die Verwendung von CPU Stubs: Eine Erweiterung von Dynamic Performance Stubs Echtzeit 2009 Peter Trapp, 20.11.2009 Übersicht 1 Einleitung 2 (Übersicht) 3 (Framework) 4 Methodik

Mehr

Einführung: Lasttests mit JMeter. Sitestress.eu Jesuitenmauer 24 33098 Paderborn www.sitestress.eu - karl@sitestress.eu - 05251 / 687060

Einführung: Lasttests mit JMeter. Sitestress.eu Jesuitenmauer 24 33098 Paderborn www.sitestress.eu - karl@sitestress.eu - 05251 / 687060 Einführung: Lasttests mit JMeter Agenda Über SITESTRESS.EU Tests planen Warum Lasttests? Testen Was ist JMeter? Ergebnisse analysieren Wie arbeitet JMeter? Beispiel JMeter-GUI Skripte für JMeter über SITESTRESS.EU

Mehr

Test nichtfunktionaler Anforderungen in der Praxis am Beispiel einer netzzentrierten Anwendung. Test nichtfunktionaler Anforderungen Agenda

Test nichtfunktionaler Anforderungen in der Praxis am Beispiel einer netzzentrierten Anwendung. Test nichtfunktionaler Anforderungen Agenda Test nichtfunktionaler in der Praxis am Beispiel einer netzzentrierten Anwendung Februar 2011 Test nichtfunktionaler Agenda 1. 2. 3. 4. 5. 6. TAV Tagung Februar 2011 Julia Remmert Public Wincor Nixdorf

Mehr

Sizing von WebForms-Umgebungen

Sizing von WebForms-Umgebungen Sizing von WebForms-Umgebungen Torsten Schlautmann OPITZ CONSULTING Gummersbach GmbH Seite 1 Agenda Probemdarstellung Grundlegendes Sizing Lasttests zur Validierung Fazit Seite 2 Agenda Probemdarstellung

Mehr

4. Die Grundsätze der Dialoggestaltung aus DIN EN ISO 9241-10

4. Die Grundsätze der Dialoggestaltung aus DIN EN ISO 9241-10 4. Die Grundsätze der Dialoggestaltung aus DIN EN ISO 9241-10 Lernziel: Grenzen des Gestaltungsspielraums bei der Softwaregestaltung kennen und nutzen MCI-2005/1 DIA-Seminar Usability-Engineering, Mai

Mehr

Softwaretechnik. Vertretung von Prof. Dr. Blume Fomuso Ekellem WS 2011/12

Softwaretechnik. Vertretung von Prof. Dr. Blume Fomuso Ekellem WS 2011/12 Vertretung von Prof. Dr. Blume WS 2011/12 Inhalt Test, Abnahme und Einführung Wartung- und Pflegephase gp Vorlesung Zusammenfassung Produkte und Recht (Folien von Prof. Blume) 2 , Abnahme und Einführung

Mehr

Realistische und aussagekräftige Lasttests mit loadit

Realistische und aussagekräftige Lasttests mit loadit Realistische und aussagekräftige Lasttests mit loadit 5. Juli 2012 Jens Müller NovaTec Ingenieure für neue Informationstechnologien GmbH Leinfelden-Echterdingen, München, Frankfurt am Main, Jeddah / Saudi-Arabien

Mehr

Quality Point München

Quality Point München Quality Point München Test webbasierter Applikationen - Vorgehen, Instrumente, Probleme Gestern habe ich mich wieder über eine fehlerhafte Webanwendung geärgert. Muss das sein? Test ist halt auch hier

Mehr

Qualitätsmanagement im Projekt

Qualitätsmanagement im Projekt Software-Engineering Qualitätsmanagement im Projekt Vorlesung im Wintersemester 2008/2009 Fakultät Wirtschaftsinformatik Klaus Mairon, M.Sc. Inhalte Messen und Bewerten: Metriken in der Qualitätssicherung

Mehr

Internet Briefing. Developer Konferenz. Clientseitige Last- & Performancetesting. Namics.

Internet Briefing. Developer Konferenz. Clientseitige Last- & Performancetesting. Namics. Internet Briefing. Developer Konferenz. Clientseitige Last- & Performancetesting. Jürg Stuker. CEO. Partner. 8. Dezember 2011 Thema 1 Verstehen was zwischen User Agent und Server geschwatzt wird... 8.

Mehr

... über OGVIT GmbH & Co. KG

... über OGVIT GmbH & Co. KG Einführung OpenSTA Agenda - über OGVIT - Warum Lasttests - Was ist OpenSTA - Wie arbeitet OpenSTA - Skripte für OpenSTA - OpenSTA Collectors - Tests planen - Testen - Ergebnisse analysieren - Beispiel

Mehr

Testmanagement in IT-Projekten

Testmanagement in IT-Projekten Teil 1: Projektmagazin 05/20009 Teil 2: Projektmagazin 06/2009 1 Test: Prozess, bei dem ein Programm oder ein Software-System ausgeführt wird, um Fehler zu finden Teil 1: Projektmagazin 05/20009 Teil 2:

Mehr

Teststrategie festlegen und Teststufen aufeinander abstimmen

Teststrategie festlegen und Teststufen aufeinander abstimmen Testen Teststrategie festlegen und Teststufen aufeinander abstimmen Bereich Projektplanung und -steuerung Aktivität Projekt planen Ziele Effiziente Testausführung Vermeidung von doppelter Arbeit schnell

Mehr

Performance Monitoring Warum macht es Sinn?

Performance Monitoring Warum macht es Sinn? Performance Monitoring Warum macht es Sinn? achermann consulting ag Nicola Lardieri Network Engineer Luzern, 25.5.2011 Inhalt Definition Monitoring Warum Performance Monitoring? Performance Monitoring

Mehr

Johannes Rahn 29.07.2010. Usability und User Experience

Johannes Rahn 29.07.2010. Usability und User Experience Johannes Rahn 29.07.2010 Usability und User Experience Seite 2 Inhalt Begriffsdefinitionen: Was ist Usability und was User Experience? Was sind die Unterschiede? Warum ist Usability und User Experience

Mehr

Software - Testung ETIS SS05

Software - Testung ETIS SS05 Software - Testung ETIS SS05 Gliederung Motivation Was ist gute Software? Vorurteile gegenüber Testen Testen (Guidelines + Prinzipien) Testarten Unit Tests Automatisierte Tests Anforderungen an Testframeworks

Mehr

Vector Software. Test Automation mit VectorCAST während der gesamten Softwareentwicklung W H I T E P A P E R

Vector Software. Test Automation mit VectorCAST während der gesamten Softwareentwicklung W H I T E P A P E R Vector Software W H I T E P A P E R Test Automation mit VectorCAST während der gesamten Softwareentwicklung VectorCAST Produktfamilie Die VectorCAST Produktfamilie automatisiert Testaktivitäten über den

Mehr

HANDBUCH JTL-WAWI. sumonet.de

HANDBUCH JTL-WAWI. sumonet.de HANDBUCH JTL-WAWI JTL-CONNECTOR.SUMONET.DE - HAND- BUCH Inhalt Die JTL-Connector.SumoNet.de Schnittstelle bietet die Möglichkeit, mit wenigen Klicks die Artikeldaten der JTL-Wawi in das SumoNet zu übertragen

Mehr

Application Performance Management. Auch eine Frage des Netzwerkes?

Application Performance Management. Auch eine Frage des Netzwerkes? Application Performance Management Auch eine Frage des Netzwerkes? Agenda Architektur von Webanwendungen Lange Applikationsantwortzeiten Application Performance Management (APM) Netzwerkbasiertes APM Serverbasiertes

Mehr

Finaler Testbericht. Finaler Testbericht. 1 Einführung 2. 1.1 Warum Softwaretests?... 2

Finaler Testbericht. Finaler Testbericht. 1 Einführung 2. 1.1 Warum Softwaretests?... 2 Inhaltsverzeichnis 1 Einführung 2 1.1 Warum Softwaretests?.................................... 2 2 Durchgeführte Tests 2 2.1 Test: allgemeine Funktionalität............................... 2 2.1.1 Beschreibung.....................................

Mehr

Performance Analyse in einem komplexen Softwaresystem. 18.09.2013 Gebhard Ebeling

Performance Analyse in einem komplexen Softwaresystem. 18.09.2013 Gebhard Ebeling Performance Analyse in einem komplexen Softwaresystem 18.09.2013 Gebhard Ebeling Problemstellung Systemkomplexität Bei der Performance Analyse komplexer Softwaresystemen gibt es viele Einflussfaktoren,

Mehr

Antwortzeitverhalten von Online Storage Services im Vergleich

Antwortzeitverhalten von Online Storage Services im Vergleich EPOD Encrypted Private Online Disc Antwortzeitverhalten von Online Storage Services im Vergleich Fördergeber Förderprogramm Fördernehmer Projektleitung Projekt Metadaten Internet Foundation Austria netidee

Mehr

Gegenseitige Beeinflussungen von Testautomatisierung, Testmanagement und Entwicklung

Gegenseitige Beeinflussungen von Testautomatisierung, Testmanagement und Entwicklung Gegenseitige Beeinflussungen von Testautomatisierung, Testmanagement und Entwicklung Jan Düttmann Archimedon Software + Consulting GmbH & Co. KG Marienstraße 66 32427 Minden Stephan Kleuker Hochschule

Mehr

Usability als neue Anforderung für Verlage

Usability als neue Anforderung für Verlage Prof. Dr. Sarah Spitzer Usability als neue Anforderung für Verlage Mit praktischem Beispiel eines Usability-Tests Flipboard Was ist Usability? Benutzerfreundlichkeit, Benutzbarkeit, Gebrauchstauglichkeit

Mehr

Data Mining-Projekte

Data Mining-Projekte Data Mining-Projekte Data Mining-Projekte Data Mining stellt normalerweise kein ei nmaliges Projekt dar, welches Erkenntnisse liefert, die dann nur einmal verwendet werden, sondern es soll gewöhnlich ein

Mehr

Fragestellung: Wie viele CPU Kerne sollte eine VM unter Virtualbox zugewiesen bekommen?

Fragestellung: Wie viele CPU Kerne sollte eine VM unter Virtualbox zugewiesen bekommen? Fragestellung: Wie viele CPU Kerne sollte eine VM unter Virtualbox zugewiesen bekommen? Umgebung Getestet wurde auf einem Linux-System mit voller invis-server Installation, auf dem eine virtuelle Maschine

Mehr

IBM Software Demos Rational Performance Tester Extension for Citrix

IBM Software Demos Rational Performance Tester Extension for Citrix Willkommen zur Online-Vorführung der IBM Rational Performance Tester- Erweiterung für Citrix Systems. Diese Demo zeigt Ihnen, wie Sie mittels der Rational Performance Testers No-Code Tests die Skalierbarkeit

Mehr

ISIS. Das Navigationssystem für angemessene Qualität und hohe Effizienz

ISIS. Das Navigationssystem für angemessene Qualität und hohe Effizienz ISIS Das Navigationssystem für angemessene Qualität und hohe Effizienz Inhalt Softwarequalität und Prozessqualität ISIS: das Ziel Messen der Prozessqualität Der Werkzeugzoo Die Wirkung Maßnahmen zur Prozessoptimierung

Mehr

IT-Symposium 2007 19. April 2007

IT-Symposium 2007 19. April 2007 Einhaltung von Service Level Agreements Jutta Adam-Fuss Server Technology Competence Center www.it-symposium2007.de 1 Einhaltung von SLAs Welche Service Level Anforderungen sind für

Mehr

Server-Eye. Stand 30.07.2013 WWW.REDDOXX.COM

Server-Eye. Stand 30.07.2013 WWW.REDDOXX.COM Server-Eye Stand 30.07.2013 Copyright 2012 by REDDOXX GmbH REDDOXX GmbH Neue Weilheimer Str. 14 D-73230 Kirchheim Fon: +49 (0)7021 92846-0 Fax: +49 (0)7021 92846-99 E-Mail: info@reddoxx.com Internet: http://www.reddoxx.com

Mehr

Metriken - ein unverzichtbarer Begleiter für Software-Prozess-Verbesserungen

Metriken - ein unverzichtbarer Begleiter für Software-Prozess-Verbesserungen Metriken - ein unverzichtbarer Begleiter für Software-Prozess-Verbesserungen Dipl.-Math. Hermann Will QADVICE Software+System Qualität Jamnitzerstr. 2, 81543 München hermann.will@qadvice.de Zusammenfassung.

Mehr

Last- und Performancetest mit freien Werkzeugen. Stefan Siegl, 17.04.2012

Last- und Performancetest mit freien Werkzeugen. Stefan Siegl, 17.04.2012 Last- und Performancetest mit freien Werkzeugen Stefan Siegl, 17.04.2012 Über mich Consultant der NovaTec GmbH Performance Engineer Leitung CA Application Performance Management Verantwortlich für Produkte

Mehr

Manuelles Testmanagement. Einfach testen.

Manuelles Testmanagement. Einfach testen. Manuelles Testmanagement. Einfach testen. Testmanagement als Erfolgsfaktor. Ziel des Testprozesses ist die Minimierung des Restrisikos verbleibender Fehler und somit eine Bewertung der realen Qualität

Mehr

Entwicklung eines Scheduling-Verfahrens zur Optimierung der Reihenfolge von Prototypentests. Masterarbeit

Entwicklung eines Scheduling-Verfahrens zur Optimierung der Reihenfolge von Prototypentests. Masterarbeit Entwicklung eines Scheduling-Verfahrens zur Optimierung der Reihenfolge von Prototypentests Masterarbeit zur Erlangung des akademischen Grades Master of Science (M.Sc.) im Masterstudiengang Wirtschaftswissenschaft

Mehr

Jens Zwer. End-to-End Monitoring für Web-, SOA- und Oracle Applikationen

Jens Zwer. End-to-End Monitoring für Web-, SOA- und Oracle Applikationen Jens Zwer Applications & Systems Management Solutions End-to-End Monitoring für Web-, SOA- und Oracle Applikationen Mai 2010 Kosten Online-Applikation vs. Nutzen & Kundenzufriedenheit? Entwicklung Test

Mehr

Data Lineage goes Traceability - oder was Requirements Engineering von Business Intelligence lernen kann

Data Lineage goes Traceability - oder was Requirements Engineering von Business Intelligence lernen kann Data Lineage goes Traceability - oder was Requirements Engineering von Business Intelligence lernen kann Andreas Ditze MID GmbH Kressengartenstraße 10 90402 Nürnberg a.ditze@mid.de Abstract: Data Lineage

Mehr

Datenvisualisierung mit JMP

Datenvisualisierung mit JMP Datenvisualisierung mit JMP Patrick René Warnat HMS Analytical Software GmbH Rohrbacherstr. 26 Heidelberg patrick.warnat@analytical-software.de Zusammenfassung Das JMP Paket ist ein Softwareprodukt der

Mehr

Leitfaden API. Testing und Debugging. Erstellt am 4.9.2014 Autor FG API, Rinaldo Lanza. Dokumentenstatus Freigegeben at work Version 1.

Leitfaden API. Testing und Debugging. Erstellt am 4.9.2014 Autor FG API, Rinaldo Lanza. Dokumentenstatus Freigegeben at work Version 1. Leitfaden API Erstellt am 4.9.2014 Autor FG API, Rinaldo Lanza Dokumentenstatus Freigegeben at work Version 1.0 Verteiler Fachgruppe API Änderungen Datum Version Autor Inhaltsverzeichnis 1 Beschreibung

Mehr

WLGauge: : Web Link Gauge to Measure the Quality of External WWW Links. Andreas Lübcke

WLGauge: : Web Link Gauge to Measure the Quality of External WWW Links. Andreas Lübcke WLGauge: : Web Link Gauge to Measure the Quality of External WWW Links Andreas Lübcke Gliederung Einführung Hintergrund zum link rot problem Arbeiten zum Thema WLGauge Open Framelet Design von WLGauge

Mehr

TELEMETRIE EINER ANWENDUNG

TELEMETRIE EINER ANWENDUNG TELEMETRIE EINER ANWENDUNG VISUAL STUDIO APPLICATION INSIGHTS BORIS WEHRLE TELEMETRIE 2 TELEMETRIE WELCHE ZIELE WERDEN VERFOLGT? Erkennen von Zusammenhängen Vorausschauendes Erkennen von Problemen um rechtzeitig

Mehr

ISA Server 2004 - Best Practice Analyzer

ISA Server 2004 - Best Practice Analyzer ISA Server 2004 - Best Practice Analyzer Die Informationen in diesem Artikel beziehen sich auf: Microsoft ISA Server 2004 Seit dem 08.12.2005 steht der Microsoft ISA Server 2004 Best Practice Analyzer

Mehr

Code und Qualität 2: Testing

Code und Qualität 2: Testing Code und Qualität 2: Testing Proseminar Objektorientiertes Programmieren mit.net und C# Trung Hieu Dao Institut für Informatik Software & Systems Engineering Agenda Motivation Unit Tests in Visual Studio

Mehr

Pflichtenheft. 1 Zielbestimmungen 2 1.1 Musskriterien... 2 1.2 Wunschkriterien... 2 1.3 Abgrenzungskriterien... 2

Pflichtenheft. 1 Zielbestimmungen 2 1.1 Musskriterien... 2 1.2 Wunschkriterien... 2 1.3 Abgrenzungskriterien... 2 Pflichtenheft Inhaltsverzeichnis 1 Zielbestimmungen 2 1.1 Musskriterien........................................ 2 1.2 Wunschkriterien....................................... 2 1.3 Abgrenzungskriterien...................................

Mehr

Übungsblatt 4: Requirements Engineering (2) (für die Übungswoche 14.11. 18.11.2011)

Übungsblatt 4: Requirements Engineering (2) (für die Übungswoche 14.11. 18.11.2011) Übungsblatt 4: Requirements Engineering (2) (für die Übungswoche 14.11. 18.11.2011) Daueraufgabe: Fünf in Fünf Präsentationsaufgabe. Bereiten Sie eine fünfminütige Präsentation vor, in der Sie die fünf

Mehr

Service Innovation Lab. Prozessoptimierung für Dienstleistungen

Service Innovation Lab. Prozessoptimierung für Dienstleistungen Service Innovation Lab Prozessoptimierung für Dienstleistungen 2 Dienstleistungsprozesse im Unternehmen Ein reibungsloser Ablauf der unternehmensinternen Prozesse ist die Basis des wirtschaftlichen Erfolgs

Mehr

OPNET s Application Response Expert (ARX)

OPNET s Application Response Expert (ARX) OPNET s Application Response Expert (ARX) Root Cause Analyse und End2End Monitoring für Web Anwendungen Summary Werden im IT Betrieb Probleme durch die Anwender gemeldet, müssen schnell Informationen aus

Mehr

MÖGLICHKEITEN UND GRENZEN IN DER DYNAMISCHEN CODEANALYSE VON C++ SOFTWARE. Von Matthias Neumann

MÖGLICHKEITEN UND GRENZEN IN DER DYNAMISCHEN CODEANALYSE VON C++ SOFTWARE. Von Matthias Neumann MÖGLICHKEITEN UND GRENZEN IN DER DYNAMISCHEN CODEANALYSE VON C++ SOFTWARE Von Matthias Neumann 19.01.2015 2/35 Inhaltsangabe Einleitung Ausprägungen der dynamischen Codeanalyse Debugging Logging Testing

Mehr

Bedienungshandbuch Software SystemDiagnostics

Bedienungshandbuch Software SystemDiagnostics Bedienungshandbuch Software SystemDiagnostics Glückwunsch, Sie haben sich für ein innovatives Produkt von Fujitsu entschieden. Aktuelle Informationen zu unseren Produkten, Tipps, Updates usw. finden Sie

Mehr

TBS-Netz 1. Forum 2B: Software -Ergonomie. Eva Fried, TBS ggmbh Rheinland-Pfalz. Inhaltsübersicht:

TBS-Netz 1. Forum 2B: Software -Ergonomie. Eva Fried, TBS ggmbh Rheinland-Pfalz. Inhaltsübersicht: Forum 2B: Software -Ergonomie Inhaltsübersicht: Was ist Software-Ergonomie? Wie kann schlecht gestaltete Software die Arbeit erschweren? Welche gesetzlichen Vorgaben haben wir, um softwareergonomische

Mehr

Vorlesung Objektorientierte Softwareentwicklung. Kapitel 0. Java-Überblick

Vorlesung Objektorientierte Softwareentwicklung. Kapitel 0. Java-Überblick Vorlesung Objektorientierte Softwareentwicklung Sommersemester este 2008 Kapitel 0. Java-Überblick Was sind die Ziele? Warum Java? Komplexe Anwendungen e-business verteilt zuverlässig sicher mobil persistent

Mehr

Seite: 1 Revisionssichere Firewalls mit Tufin SecureTrack. NUBIT 2006 Kiel, 17. Februar 2006. Martin Seeger NetUSE AG ms@netuse.de

Seite: 1 Revisionssichere Firewalls mit Tufin SecureTrack. NUBIT 2006 Kiel, 17. Februar 2006. Martin Seeger NetUSE AG ms@netuse.de Seite: 1 mit Tufin SecureTrack NUBIT 2006 Kiel, 17. Februar 2006 Martin Seeger NetUSE AG ms@netuse.de Seite: 2 mit Tufin SecureTrack Agenda Herausforderungen Aufbau und Funktionsweise Versionsstände Vergleiche

Mehr

Jump Project. Softwarelösungen für professionelles Projektmanagement

Jump Project. Softwarelösungen für professionelles Projektmanagement Jump Project Softwarelösungen für professionelles Projektmanagement Jump Project Office Übersichtliche Dokumentenstruktur und schneller Zugriff auf alle wichtigen Funktionen. Steuern Sie Ihre Projekte

Mehr

TIKOS Leitfaden. TIKOS Update

TIKOS Leitfaden. TIKOS Update TIKOS Leitfaden TIKOS Update Copyright 2015, Alle Rechte vorbehalten support@socom.de 06.05.2015 Inhalt 1. Allgemeine Hinweise... 3 2. Ausführen des Updates... 3 3. Mögliche Meldungen beim Update... 9

Mehr

Qualitätssicherung durch Lasttests Vortrag für Führungskräfte und Projektleiter

Qualitätssicherung durch Lasttests Vortrag für Führungskräfte und Projektleiter Qualitätssicherung durch Lasttests Vortrag für Führungskräfte und Projektleiter Ingenieurbüro David Fischer GmbH www.proxy-sniffer.com Inhalt 1. Übergeordnete Zielsetzungen 2. Negativ-Beispiele aus der

Mehr

fungen Debugging Boris Tripolskij

fungen Debugging Boris Tripolskij Werkzeuggestützte tzte Softwareprüfungen fungen Debugging Boris Tripolskij Gliederung Motivation für Debugging Aufbau des Debuggers in Eclipse Arten von Debugging Tools Fehlerarten Delta Debugging Vorführung

Mehr

Konfiguration von Clients zur Kommunikation mit einem SUS-Server

Konfiguration von Clients zur Kommunikation mit einem SUS-Server Konfiguration von Clients zur Kommunikation mit einem SUS-Server Allgemeine Informationen Damit sich der Autoupdate-Client die Updates vom lokalen SUS-Server abholt, muss in seiner Registry die korrekten

Mehr

JOB MANAGEMENT MIT DEM SAP SOLUTION MANAGER. Whitepaper

JOB MANAGEMENT MIT DEM SAP SOLUTION MANAGER. Whitepaper JOB MANAGEMENT MIT DEM SAP SOLUTION MANAGER. Whitepaper Wussten Sie, dass lediglich der kleinere Teil der Datenverarbeitung in Ihrem System von End-Anwendern generiert wird? Der größere Teil der Informationen

Mehr

Redwood Cronacle und REALTECH theguard! Integration

Redwood Cronacle und REALTECH theguard! Integration Redwood Cronacle und REALTECH theguard! Integration Einleitung Redwood Software und REALTECH haben gemeinsam eine Lösung entwickelt, die die Systemverfügbarkeit von SAP und mysap Systemen signifikant erhöht.

Mehr

WCET-Analyseverfahren in der automobilen Softwareentwicklung

WCET-Analyseverfahren in der automobilen Softwareentwicklung WCET-Analyseverfahren in der automobilen Softwareentwicklung Martin Däumler 1 Robert Baumgartl 2 Matthias Werner 1 1 Technische Universität Chemnitz 2 HTW Dresden 28. November 2008 M. Däumler et al (TUC,

Mehr

Testen - Konzepte und Techniken

Testen - Konzepte und Techniken Testen - Konzepte und Techniken Magdalena Luniak 21.11.2007 Magdalena Luniak () Testen - Konzepte und Techniken 21.11.2007 1 / 42 Übersicht 1 Motivation 2 Grundbegrie 3 Testen im Softwareentwicklungsprozess

Mehr

Prototypvortrag. Exploiting Cloud and Infrastructure as a Service (IaaS) Solutions for Online Game Service Provisioning. Projektseminar WS 2009/10

Prototypvortrag. Exploiting Cloud and Infrastructure as a Service (IaaS) Solutions for Online Game Service Provisioning. Projektseminar WS 2009/10 Prototypvortrag Exploiting Cloud and Infrastructure as a Service (IaaS) Solutions for Online Game Service Provisioning Projektseminar WS 2009/10 Eugen Fot, Sebastian Kenter, Michael Surmann AG Parallele

Mehr

Fragebogen: Abschlussbefragung

Fragebogen: Abschlussbefragung Fragebogen: Abschlussbefragung Vielen Dank, dass Sie die Ameise - Schulung durchgeführt haben. Abschließend möchten wir Ihnen noch einige Fragen zu Ihrer subjektiven Einschätzung unseres Simulationssystems,

Mehr

Bachelor Thesis an der Fachhochschule Kiel, Fachbereich Wirtschaft. Sommersemester 2011. : Prof. Dr. Doris Weßels

Bachelor Thesis an der Fachhochschule Kiel, Fachbereich Wirtschaft. Sommersemester 2011. : Prof. Dr. Doris Weßels Handlungsempfehlungen zur Nutzung von Social Media zur Gestaltung von Wissensmarktplätzen am Beispiel des europäischen Förderprojektes Win-Vin: Wissen nutzen im Norden Bachelor Thesis an der Fachhochschule

Mehr

Senior Consulting. Senior Consulting Strategical, Conceptual and Technical Consulting. 30.01.2011 Seite 1

Senior Consulting. Senior Consulting Strategical, Conceptual and Technical Consulting. 30.01.2011 Seite 1 30.01.2011 Seite 1 This flyer is exclusively for the use of client personnel. No part of it may be distributed, quoted or reproduced outside the client organisation without the prior written approval of

Mehr

Senior Consulting. Senior Consulting Strategical, Conceptual and Technical Consulting. 30.01.2011 Seite 1

Senior Consulting. Senior Consulting Strategical, Conceptual and Technical Consulting. 30.01.2011 Seite 1 30.01.2011 Seite 1 This flyer is exclusively for the use of client personnel. No part of it may be distributed, quoted or reproduced outside the client organisation without the prior written approval of

Mehr

Testautomatisierung. Märchen, Möglichkeiten und praktischer Nutzen. Richard Seidl 21. Januar 2013 TU Dresden. Medizin- und Informationstechnik AG

Testautomatisierung. Märchen, Möglichkeiten und praktischer Nutzen. Richard Seidl 21. Januar 2013 TU Dresden. Medizin- und Informationstechnik AG Medizin- und Informationstechnik AG Testautomatisierung Märchen, Möglichkeiten und praktischer Nutzen Richard Seidl 21. Januar 2013 TU Dresden Kardiologische Funktionsdiagnostik Vitalfunktions-Monitoring

Mehr

Session 8: Projektvorstellung Transferprojekt itsowl-tt-savez 18. August 2015, Gütersloh. www.its-owl.de

Session 8: Projektvorstellung Transferprojekt itsowl-tt-savez 18. August 2015, Gütersloh. www.its-owl.de Session 8: Projektvorstellung Transferprojekt itsowl-tt-savez 18. August 2015, Gütersloh www.its-owl.de Agenda Abschlusspräsentation itsowl-tt-savez Einführung Zielsetzung Ergebnisse Resümee und Ausblick

Mehr

Software Performance Lifecycle Management bei der DBV Winterthur

Software Performance Lifecycle Management bei der DBV Winterthur Ihr leistungsstarker Partner für die Integration aller qualitätsbezogener Aspekte einer Softwareentwicklung oder Softwareeinführung Software Performance Lifecycle Management bei der DBV Winterthur Alois

Mehr

Der Blindflug in der IT - IT-Prozesse messen und steuern -

Der Blindflug in der IT - IT-Prozesse messen und steuern - Der Blindflug in der IT - IT-Prozesse messen und steuern - Ralf Buchsein KESS DV-Beratung GmbH Seite 1 Agenda Definition der IT Prozesse Ziel der Prozessmessung Definition von Prozesskennzahlen KPI und

Mehr

Basiswissen Softwaretest

Basiswissen Softwaretest Basiswissen Softwaretest Vergleich der Vorlesung Software-Engineering Wartung und Qualitätssicherung (Stand WS13/14) mit der 4. überarbeiteten und aktualisierten Auflage von Spillner&Linz: Basiswissen

Mehr

Design eines Reportings für ein Produktmanagement in der. Automatisierungstechnik

Design eines Reportings für ein Produktmanagement in der. Automatisierungstechnik Design eines Reportings für ein Produktmanagement in der Automatisierungstechnik Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftsingenieur der

Mehr

Datenvisualisierung mit JMP

Datenvisualisierung mit JMP Lehre Datenvisualisierung mit JMP Patrick René Warnat HMS Analytical Software GmbH Rohrbacherstr. 26 Heidelberg patrick.warnat@analytical-software.de Zusammenfassung Das JMP Paket ist ein Softwareprodukt

Mehr

Standardisieren Sie die manuelle Differenzierung in Ihrem Labor

Standardisieren Sie die manuelle Differenzierung in Ihrem Labor Standardisieren Sie die manuelle Differenzierung Einleitung Die Interpretation von Ausstrichen peripheren Bluts spielt eine große Rolle bei der Diagnose hämatologischer Krankheiten und stellt daher eine

Mehr

Projekttitel: Auktionsplattform Projekthomepage: buecher.auf-knopfdruck.com

Projekttitel: Auktionsplattform Projekthomepage: buecher.auf-knopfdruck.com Software Engineering Labor-Übung, LVNr: 050052/2 Übungsleiter: Martin Köhler Dokument: Anforderungsanalyse und Use Case Modell I v.1.2 Projekttitel: Auktionsplattform Projekthomepage: buecher.auf-knopfdruck.com

Mehr

Collaborative Virtual Environments

Collaborative Virtual Environments Collaborative Virtual Environments Stefan Lücking Projektgruppe Kreativität und Technik AG Domik WS 02/03 09.01.2003 1/35 Was sind CVE? Versuch einer Definition : Ein CVE ist ein Programm, das eine virtuelle

Mehr

Werkzeuggestützte Softwareprüfungen Statische Analyse und Metriken

Werkzeuggestützte Softwareprüfungen Statische Analyse und Metriken Werkzeuggestützte Softwareprüfungen Statische Analyse und Metriken Dennis Hardt 21.06.2006 Gliederung Statische Analyse Definition, Arbeitsweise, Werkzeuge Angewandt auf ein Projekt Statische Analyse selbst

Mehr

1 Einleitung. 1.1 Caching von Webanwendungen. 1.1.1 Clientseites Caching

1 Einleitung. 1.1 Caching von Webanwendungen. 1.1.1 Clientseites Caching 1.1 Caching von Webanwendungen In den vergangenen Jahren hat sich das Webumfeld sehr verändert. Nicht nur eine zunehmend größere Zahl an Benutzern sondern auch die Anforderungen in Bezug auf dynamischere

Mehr

Validierung und Verifikation!

Validierung und Verifikation! Martin Glinz Thomas Fritz Software Engineering Kapitel 7 Validierung und Verifikation 2005-2013 Martin Glinz. Alle Rechte vorbehalten. Speicherung und Wiedergabe für den persönlichen, nicht kommerziellen

Mehr

Installationsanleitung biz Version 8.0.0.0

Installationsanleitung biz Version 8.0.0.0 bizsoft Büro Software A-1040 Wien, Waaggasse 5/1/23 D-50672 Köln, Kaiser-Wilhelm-Ring 27-29 e-mail: office@bizsoft.de internet: www.bizsoft.de Installationsanleitung biz Version 8.0.0.0 Die biz Vollversion

Mehr

Programmieren I. Übersicht. Vorlesung 12. Handout S. 1. Martin Schultheiß. Hochschule Darmstadt Wintersemester 2010/2011

Programmieren I. Übersicht. Vorlesung 12. Handout S. 1. Martin Schultheiß. Hochschule Darmstadt Wintersemester 2010/2011 Programmieren I Martin Schultheiß Hochschule Darmstadt Wintersemester 2010/2011 1 2 Übersicht Testen ist eine der wichtigsten, aber auch eine der Zeitaufwändigsten Arbeitsschritte der Softwareentwicklung.

Mehr

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte I N F O R M A T I O N V I R T U A L I S I E R U N G Wir schützen Ihre Unternehmenswerte Wir schützen Ihre Unternehmenswerte Ausfallsicherheit durch Virtualisierung Die heutigen Anforderungen an IT-Infrastrukturen

Mehr

Java Applet Alternativen

Java Applet Alternativen White Paper Java Applet Alternativen Version 1.0, 21.01.2014 Tobias Kellner tobias.kellner@egiz.gv.at Zusammenfassung: Aufgrund diverser Meldungen über Sicherheitslücken in Java haben in letzter Zeit Browser-Hersteller

Mehr

Architektur in der Mechatronik. existierender Testwerkzeuge

Architektur in der Mechatronik. existierender Testwerkzeuge Universelle Testsystem Architektur in der Mechatronik Ansatz zur Systematisierung Ansatz zur Systematisierung existierender Testwerkzeuge Gliederung Umfeld und Problemstellung Testsystem Architektur Funktionale

Mehr

Leistungs- und Geschwindigkeitssteigerung. Dipl.-Ing. Sebastian F. Kleinau Applikationsingenieur

Leistungs- und Geschwindigkeitssteigerung. Dipl.-Ing. Sebastian F. Kleinau Applikationsingenieur Leistungs- und Geschwindigkeitssteigerung von LabVIEW-Projekten Dipl.-Ing. Sebastian F. Kleinau Applikationsingenieur Agenda 1. Einführung 2. Hilfreiche Werkzeuge zur Codeanalyse 3. Benchmarks für LabVIEW-VIs

Mehr

Risiken auf Prozessebene

Risiken auf Prozessebene Risiken auf Prozessebene Ein Neuer Ansatz Armin Hepe Credit Suisse AG - IT Strategy Enabeling, Practices & Tools armin.hepe@credit-suisse.com Persönliche Vorstellung, kurz 1 Angestellter bei Credit Suisse

Mehr

Softwaretests in Visual Studio 2010 Ultimate Vergleich mit Java-Testwerkzeugen. Alexander Schunk Marcel Teuber Henry Trobisch

Softwaretests in Visual Studio 2010 Ultimate Vergleich mit Java-Testwerkzeugen. Alexander Schunk Marcel Teuber Henry Trobisch Softwaretests in Visual Studio 2010 Ultimate Vergleich mit Java-Testwerkzeugen Alexander Schunk Henry Trobisch Inhalt 1. Vergleich der Unit-Tests... 2 2. Vergleich der Codeabdeckungs-Tests... 2 3. Vergleich

Mehr

Neue Funktionen in Innovator 11 R5

Neue Funktionen in Innovator 11 R5 Neue Funktionen in Innovator 11 R5 Innovator for Enterprise Architects, Java Harvester und Prüfassistent 12.11.2013 Agenda 1 2 3 Einführung Was ist neu in Innovator 11 R5? Szenario Enterprise Architektur

Mehr

Test-Strategien. Grundsätzliches Blackbox-Testen Whitebox-Testen Graybox-Testen Ablauf von Tests Zusammenfassung. HS Mannheim

Test-Strategien. Grundsätzliches Blackbox-Testen Whitebox-Testen Graybox-Testen Ablauf von Tests Zusammenfassung. HS Mannheim Test- Grundsätzliches - - - Ablauf von Tests Grundsätzliche Test- -Tests Äquivalenzklassenbildung Randwertanalyse -Tests Man unterscheidet verschiedene Überdeckungsgrade: Statement Coverage Decision Coverage,

Mehr

ZENITY - Die Software für Ihre Unternehmens-Releaseplanung

ZENITY - Die Software für Ihre Unternehmens-Releaseplanung ZENITY - Die Software für Ihre Unternehmens-Releaseplanung RELEASEPLANUNG HEUTE Heutige Anwendungen in in Grossunternehmen sind sind keine keine alleinstehenden alleinstehenden Insel-Applikationen Insel-Applikationen

Mehr

Wie schreibt man eine Ausarbeitung?

Wie schreibt man eine Ausarbeitung? Wie schreibt man eine Ausarbeitung? Holger Karl Holger.karl@upb.de Computer Networks Group Universität Paderborn Übersicht Ziel einer Ausarbeitung Struktur Sprache Korrektes Zitieren Weitere Informationen

Mehr

Methodische, softwaregestützte Risikobeurteilung

Methodische, softwaregestützte Risikobeurteilung Methodische, softwaregestützte Risikobeurteilung Ziel der Risikobeurteilung ist es, die von einem Produkt ausgehenden Gefährdungspotenziale möglichst vollständig zu erfassen und Schutzmaßnahmen gegen sie

Mehr

SE2-10-Entwurfsmuster-2 15

SE2-10-Entwurfsmuster-2 15 Architektur und Skalierbarkeit SE2-10-Entwurfsmuster-2 15 Skalierbarkeit Skalierbarkeit bedeutet die Anpassung einer Software an wachsende Last: Interaktionsfrequenz Nutzerzahl Anpassung durch Hinzufügen

Mehr

Metriken und optimale Einsatzszenarien für Garbage Collectoren der Java HotSpot Virtual Machine

Metriken und optimale Einsatzszenarien für Garbage Collectoren der Java HotSpot Virtual Machine Metriken und optimale Einsatzszenarien für Garbage Collectoren der Java HotSpot Virtual Machine Michael Schmeißer michael@skamandros.de 25. September 2012 25.09.2012 Michael Schmeißer, Auswahl eines Garbage

Mehr

UI-Testing mit Microsoft Test Manager (MTM) Philip Gossweiler / 2013-04-18

UI-Testing mit Microsoft Test Manager (MTM) Philip Gossweiler / 2013-04-18 UI-Testing mit Microsoft Test Manager (MTM) Philip Gossweiler / 2013-04-18 Software Testing Automatisiert Manuell 100% 70% 1 Überwiegender Teil der Testing Tools fokusiert auf automatisiertes Testen Microsoft

Mehr

Lasttestbericht BL Bankrechner

Lasttestbericht BL Bankrechner Lasttestbericht BL Bankrechner Business-Logics GmbH Inhaltsverzeichnis 1 Testumgebung 2 1.1 Hardwareversionen........................ 2 1.2 Softwareversionen........................ 3 1.3 Datenbestand..........................

Mehr

Software- Qualitätsmanagement

Software- Qualitätsmanagement Software- Qualitätsmanagement Thomas Kugel Brandenburg, den 10.12.2002 Agenda Einleitung Was heißt Softwarequalitätssicherung und Test Die Rolle von Test und QS in Softwareprojekten Wie wird getestet Statische

Mehr

Inhaltsverzeichnis Einführung...1 Performance und Entwicklungsprozess...13

Inhaltsverzeichnis Einführung...1 Performance und Entwicklungsprozess...13 Inhaltsverzeichnis 1 Einführung...1 1.2 Ein Performancemeeting...1 1.3 Das fachliche und technische Umfeld...4 1.4 Performanceaspekte...5 1.5 Neue Herausforderungen...8 1.6 Performance als interdisziplinäre

Mehr