Reinventing Quality

ERROR: Content Element with uid "6555" and type "dce_dceuid16" has no rendering definition!

Software Performance richtig testen - aber wie?

Entsprechend des Mottos dieses Software-QS-Tags beschäftigt sich dieser Vortrag mit der Frage, wie man die Performance (im Sinne von Antwortzeit, Durchsatz und Ressourcenverbrauch) einer Software richtig testet und dabei auch keine wesentlichen Aspekte vergisst, also auch das "Richtige" testet. Die genannten Fragestellungen sind im Bereich der Performance besonders herausfordernd, da durch die hohen Kosten für repräsentative Performance-Testsysteme meist entweder nur ein begrenzter zeitlicher Zugriff auf diese möglich ist oder nur Systeme in deutlich kleinerer Dimensionierung als benötigt zur Verfügung stehen.

Wie aber kann man in der zur Verfügung stehenden Zeit und mit den gegebenen Umgebungen repräsentative Performance-Tests durchführen? Und wie hält man die Kosten dafür im Rahmen? Dieser Vortrag gibt Antworten auf diese und weitere Fragen im Bereich der Software Performance. Wir werden insbesondere darauf eingehen, wie die aktuell sehr verbreiteten messbasierten Performance-Evaluationsverfahren durch modellbasierte Verfahren ergänzt werden können. Durch Beispiele aus fünf unterschiedlichen Kundenprojekten zeigen wir, wie die Integration von mess- und modellbasierten Performance-Evaluationsverfahren viele praktische Probleme löst, da zum einen eine größere Testabdeckung realisiert werden kann und zum anderen die Möglichkeit gegeben wird, unabhängig von der Verfügbarkeit von Testumgebungen Performance-Evaluationen durchzuführen.

Zunächst stellen wir ein Projekt vor, in dem die Integration von modell- und messbasierten Performance-Evaluationsansätzen eine Möglichkeit geschaffen hat, fundiert zu entscheiden was getestet werden muss. Hier wird gezeigt, wie man durch eine geschickte Kombination verschiedener Performance-Evaluationstechniken eine gemeinsame Sicht des Business, der Entwicklung und des Betriebs erstellt wurde, um zu entscheiden, was in welcher Art und mit welcher Priorität untersucht werden muss. Hier geht es also um das „Richtige“.

In den folgenden zwei Beispielen geht es um die Frage des richtigen Testens, da wir aufzeigen, wie zu klein dimensionierte Performance-Messungen bei manuellen Performance-Tests oder in Continuous Integration Systemen durch modellbasierte Performance-Evaluationen ergänzt werden können. Hier wird gezeigt, wie trotz der fehlenden Verfügbarkeit von entsprechend groß dimensionierten Testumgebungen Performance für die geplante Produktionsumgebung für jeden neuen Build evaluiert werden kann.

Abschließend gehen wir auf zwei Beispiele im Bereich Kapazitätsplanung und -management ein, da auch die Berechnung des „Richtigen“ wesentlichen Einfluss auf die Performance und die assoziierten Kosten hat.

Dr. Andreas Brunnert, RETIT GmbH

Dr. Andreas Brunnert ist geschäftsführender Gesellschafter der RETIT GmbH. RETIT bietet Softwarelösungen und Beratungsleistungen rund um das Thema Software Performance an. Vor seiner Zeit bei RETIT war Dr. Andreas Brunnert bei einem An-Institut der Technischen Universität München (TUM) als Teamleiter einer Forschungsgruppe zum Thema Software Performance und bei der IBM Deutschland Research & Development GmbH als Technical Lead und Advisory IT Specialist tätig. Er hat an der TUM in Informatik promoviert sowie Informatik an der FH Brandenburg und Wirtschaftsinformatik an der Universität Bamberg studiert. Dr. Andreas Brunnert beschäftigt sich seit über zehn Jahren mit dem Thema der Performance-Evaluation von Softwaresystemen, in den letzten Jahren fokussiert durch die Integration von mess- und modellbasierten Performance-Evaluationsansätzen.