Für jeden Test werden Testdaten gebraucht. Warum aber in Delivery-Pipelines die Testdatenbereitstellung derzeit oft nicht mit der notwendigen Automatisierung stattfindet, erläutert Christoph Knopp im Dialog mit Markus. Zum Schließen der Automatisierungslücke stellt er das Tool TriDator vor und erläutert anhand der vorgestellten Lösung Schlüsselfragen der automatisierten Testdatenbereitstellung im DevOps-Umfeld, bzw. CI/CD.
Podcast #41 Die Automatisierungslücke im Testdatenmanagement
Hör' Dir hier den ganzen Podcast an:
Diese Themen erwarten Dich:
[00:30] Überblick über den Podcast
[01:32] Vorstellung Christoph Knopp
[01:48] Die Bedeutung des Testdatenmanagements
[02:20] Themengebiete im TDM ?
[02:53] Umgang mit regulatorischen Anforderungen
[03:41] Unterschied zwischen Anonymisierung und Pseudonymisierung
[04:31] Nutzung synthetischer Testdaten
[05:06] Kundenindividuelle Anforderungen an eine TDM-Lösung
[06:00] Einfluss der Verbreitung von Agilität/DevOps
[06:56] Herausforderungen im Umfeld und Defizite bestehender Lösungen
[08:06] Kontinuierliche Testdatenbereitstellung
[08:48] Ausbildung Testdatenmanager
[09:12] Empfehlung Test Data Specialist des GTB
[09:43] Technische Lösung für das Testdatenmanagement
[10:44] Einfluss individueller Rahmenbedigungen
[11:25] Toolanbieter für TDM
[12:00] Anlass für die Entwicklung eines eigenen Frameworks
[12:51] Features zeichnen des TDM-Frameworks TriDator
[13:55] TriDator und konsistente Anonymisierung
[15:07] Technologien im TDM-Framework
[16:00] Bestandteile einer kundenspezifischen Gesamtlösung
[17:34] Lizensierungsmodell
[19:31] Geplante Features für das TDM-Framework
[20:04] KI-unterstützte Erstellung von Testdaten
[20:44] Informationen zu TDM-Framework
[21:17] Kontaktaufnahme
Warum ist Testdatenmanagement so wichtig?
Testdaten sind das Rückgrat jeglicher Softwaretests. Ohne sie können keine realistischen Tests durchgeführt werden, was die Qualität der Software erheblich beeinträchtigt. Christoph verdeutlicht dies mit einfachen Worten: „Ohne Testdaten kein Test.“ Er erklärt, dass es nicht nur darum geht, irgendwelche Daten zu haben, sondern diese auch korrekt zu verwalten. Dazu gehören etwa Fragen wie: Woher kommen die Daten? Können sie mehrfach verwendet werden? Diese Punkte sind entscheidend, um Effizienz und Genauigkeit im Testing sicherzustellen.
Regulatorische Anforderungen an Testdaten
Ein weiteres großes Thema ist der Umgang mit regulatorischen Anforderungen wie der EU-DSGVO. Christoph erklärt die Unterschiede zwischen Anonymisierung und Pseudonymisierung von Daten. Während anonymisierte Daten nicht mehr auf ihre ursprüngliche Quelle zurückgeführt werden können, bleibt diese Möglichkeit bei pseudonymisierten Daten bestehen. Diese Unterscheidung ist wichtig, da nur anonymisierte Daten unter bestimmten Bedingungen ohne Verstoß gegen die DSGVO verwendet werden können.
Herausforderungen und individuelle Kundenanforderungen
Das Testdatenmanagement ist kein 'One-Size-Fits-All'-Ansatz. Jede Organisation hat spezifische Anforderungen und Herausforderungen. Christoph erläutert, wie individuelle Rahmenbedingungen und spezifische Kundenanforderungen den Prozess stark beeinflussen können. Beispielsweise benötigt eine Versicherung spezielle Prüfziffern in ihren Datensätzen, was besondere Anpassungen erfordert. Hier zeigt sich auch die Notwendigkeit flexibler Lösungen, die sich an verschiedene Kundensituationen anpassen lassen.
Der Einfluss von Agilität und DevOps auf das Testdatenmanagement
Mit dem Aufkommen von DevOps und agiler Entwicklung hat sich auch der Anspruch an das Testdatenmanagement verändert. Christoph betont, dass in einem agilen Umfeld alles automatisiert sein muss – inklusive der Bereitstellung von Testdaten. Manuelle Schritte sind hier nicht mehr tragbar, da sie den Entwicklungszyklus verlangsamen würden. Das bedeutet, dass moderne Testdatenlösungen APIs und andere Technologien unterstützen müssen, um eine nahtlose Integration in CI/CD-Pipelines zu gewährleisten.
Zukünftige Entwicklungen und technologische Ansätze
Zum Abschluss des Gesprächs wirft Christoph einen Blick in die Zukunft des Testdatenmanagements. Besonders interessant sind hier Ansätze zur KI-unterstützten Erstellung von Testdaten sowie kontinuierliche Verbesserungen bestehender Lösungen. Tridator, das neue Framework von Trimetis, setzt auf Modularität und Flexibilität als Schlüssel zum Erfolg. Es bietet standardisierte Module für verschiedene Anwendungsfälle und erlaubt kundenspezifische Anpassungen über APIs.
Infos und Kontakt
Informationen zu TriDator sind hier erhältlich https://tridator.com/.
Christoph Knopp kann kontaktiert werden über LinkedIn Christoph Knopp