Tutorial IV - 04.11.2010

16:30 - 18:30 Mit Stichproben-Reviews
die Dauer von Testphasen vorhersagen
Peter Rösler,
ReviewConsult
Maud Schlich,
ReviewConsult


Im Tutorial wird gezeigt, wie Testmanager mit stichprobenhaft durchgeführten Reviews auf Anforderungs-, Design- und Code-Dokumenten schon frühzeitig im Projekt abschätzen können, ob die Testphasen länger als geplant dauern werden. Da ein signifikanter Anteil aller Softwareprojekte sich verzögert oder ganz abgebrochen wird (siehe Chaos Report 2004), und dies oft erst in den Testphasen erkennbar wird, können Testmanager mit Stichproben-Reviews wesentlich zur Früherkennung von Projektrisiken beitragen.

Der Aufwand in den Testphasen besteht im Wesentlichen aus zwei Blöcken. Ein Aufwandsblock ist immer da, egal ob die Software Fehler hat oder nicht, nämlich das Spezifizieren der Testfälle und das (einmalige) Durchspielen aller Testfälle. Diesen Aufwand können Testmanager in der Regel aus der Größe des Softwaresystems (z.B. gerechnet in Funktion Points) und anderen Daten schätzen.

Der zweite Aufwandsblock, der "Rework-Aufwand", ist annähernd proportional zur Fehlerdichte der Software. Der Rework-Aufwand besteht aus allen Arbeiten, die aus Fehlern resultieren: das Lokalisieren von gefundenen Fehlern, das Korrigieren der Dokumente inklusive Programme, das Ändern der Testspezifikationen, das Wiederholen von Testläufen etc. Die Fehlerdichte und damit der Rework-Aufwand sind leider die großen Unbekannten für Projektleiter und Testmanager. Der Rework-Aufwand macht in typischen Projekten mehr als die Hälfte des Testaufwands aus, ist aber stark variabel, je nach Firma und Projekt. Die Reviewtechnik-Literatur berichtet von Projekten, die im Vergleich zu anderen Projekten eine um Faktor 100 geringere Fehlerdichte hatten. Aus Metriksicht gehört die Fehlerdichte zu den wichtigsten Kennzahlen, die erfolgreiche von gescheiterten Projekten unterscheiden. Im Tutorial wird gezeigt, wie ein Testmanager die Fehlerdichte mit stichprobenhaft durchgeführten Reviews abschätzen kann.

Die Fehlerdichte kann nur ermittelt werden, wenn die Effektivität der Reviews genau genug bekannt ist. Es muss also herausgefunden werden, wie viele der im Dokument vorhandenen Fehler das Reviewteam tatsächlich entdeckt hat. Im Tutorial werden zwei praktikable Ansätze vorgestellt: 1. Die Effektivität wird abgeschätzt durch den Vergleich der realen Inspektionsrate mit der für den jeweiligen Dokumenttyp optimalen Inspektionsrate. 2. Die Effektivität wird durch die Capture-Recapture-Methode abgeschätzt. Diese Methode ist aus der Biologie bekannt und wird verwendet, um die Größe von Tierpopulationen zu ermitteln. In der Softwareentwicklung kann diese Methode ganz analog eingesetzt werden, wenn mindestens zwei Reviewer dasselbe Dokument prüfen.

Die erste Hälfte des Tutorials besteht aus einer Einführung in Reviews und Inspektionen, so dass auch Teilnehmer ohne Reviewtechnikvorkenntnisse am Tutorial teilnehmen können.

 

Peter Rösler, ReviewConsult
Dipl.-Inform. Peter Rösler ist trainierter Reviewmoderator für Gilb-Inspektionen und beschäftigt sich seit über 20 Jahren mit dem Thema Reviews. Bei mehreren Schulungsanbietern ist er Dozent für Review-Seminare und hat in über 100 Seminaren mehr als 1000 Softwareentwickler in Reviewtechnik geschult.
Peter Rösler studierte von 1981-1987 Informatik an der TU München und arbeitete als Programmierer, Chefdesigner, QS-Beauftragter und Projektleiter in verschiedensten Softwareentwicklungsprojekten, vorwiegend im Bereich Airports/Airlines bei der Firma Softlab GmbH in München. Seit 2005 arbeitet er als freiberuflicher Reviewtechnik-Trainer und berät Firmen bei der Einführung und Optimierung von Reviews und Inspektionen.

 

Maud Schlich, ReviewConsult
Maud Schlich begann ihre Berufstätigkeit 1991 nach Studium am Lehrstuhl für Informatik und Ausbildung in Kaiserslautern bei der Corning Keramik GmbH & Co KG als Systemprogrammiererin und Trainerin. 1996 wechselte sie als Fachfrau für Qualitätssicherung zur Unternehmensberatung systema. Von 1998 bis 2004 war sie als wissenschaftliche Mitarbeiterin am Fraunhofer Institut für Experimentelles Software Engineering (IESE) in Kaiserslautern tätig mit Schwerpunkt Testen und Inspektionen. 2000 übernahm sie die Leitung der Außenstelle des IESE in Kaiserslautern und die Geschäftsführung der Software Technologie Initiative (STI) e.V. In 2004 verantwortete sie den Bereich R&D der PFAFF Industrie Maschinen GmbH.
Seit Ende 2004 ist Maud Schlich selbstständig tätig als fachlicher Coach und ISO / IEC 15504 (SPICE) Assessorin für Systems- und Software Engineering.
Maud Schlich ist Certified Tester Full Advanced Level und seit 2007 Mitglied des German Testing Board des ISTQB. Außerdem leitet sie beim ASQF die Regionalfachgruppe "Maturity Models Rhein/Main“.

 

> zurück zum Vortragsprogramm

© 2014 imbus AG