Willkommen in der Zukunft! Eine Zukunft, in der Softwareentwicklung & Softwaretesting so simpel ist wie ein Kaffeevollautomat: Knopf drücken, Code kommt raus. Natürlich fehlerfrei und genau nach dem gewünschtem Geschmack. Generative KI (GenAI) schreibt den Code, AI-Agenten testen ihn, und die Entwickler? Die schauen beeindruckt auf ihre Bildschirme und philosophieren darüber, wie überflüssig sie bald sein werden. Wie überspitzt ist diese Szenario wirklich?
Tatsächlich entsteht schon heute ein beträchtlicher Teil neuer Software nicht mehr ausschließlich durch mühsames Tippen menschliche Finger, sondern durch KI-gestützte Systeme. Heißt das, Entwickler werden überflüssig? Meine objektive und komplett uneigennützige Meinung als Informatiker und Softwareentwickler lautet natürlich ganz klar: “Nein, natürlich nicht.”
Aktuelle KI-Systeme sind zweifellos beeindruckend darin, effizient und schnell Code in einer Qualität zu generieren, der viele Entwickler ins Schwitzen bringt. Doch was den meisten KIs nach wie vor fehlt (vermutlich schon per Konstruktion einiger Systeme), ist ein tiefes wirkliches Verständnis für die Korrektheit der Ausgaben. Anders gesagt: KI kann mit den richtigen Anweisungen hervorragend analysieren, kreieren, optimieren und sogar kreativ wirken. Doch echte Innovation, das Erkennen völlig neuer Problemstellungen oder das Entwickeln bahnbrechender Konzepte erfordert aktuell nach wie vor eine mitdenkende (teilweise stark spezialisierte) Person, die mit menschlichen Inputs eine Richtung oder einen Workflow vorgibt und dann die Ergebnisse überprüft.
Ganz davon abgesehen ist der eigentliche, ausschlaggebende Chaosfaktor in den meisten Softwareprojekten mit und ohne KI: Der Mensch. Und den kann man nicht einfach wegrationalisieren, so sehr wir es manchmal auch gerne würden. Denn egal, wie viel KI wir auf Code werfen, am Ende ist Software immer für Menschen gemacht, von Menschen genutzt und von Menschen mit all ihren Wünschen, Missverständnissen und spontanen Meinungsänderungen beeinflusst. Ohne den Menschen in Softwareprojekten gäbe es vermutlich weniger Bugs. Nur ohne die menschliche Komponente bräuchte es auch keine Software.
Aber wenn KI bereits Code schreibt, stellt sich eine weitere spannende Frage: Brauchen wir dann überhaupt noch Softwaretests? Schließlich könnte eine KI doch einfach eine andere KI testen, wie zwei Schachcomputer, die sich gegenseitig besiegen wollen. Einige Anbieter von AI-Agenten versprechen genau das: eine Zukunft, in der Software sich selbst testet, selbst verbessert und letztlich so perfekt ist, dass Bugs nur noch eine nostalgische Erinnerung an die vergangenen Tage der IT sind.
Doch ist dies realistisch oder nur Marketing-Buzzword-Bingo? Wie weit sind wir wirklich von einer Welt entfernt, in der AI-Agenten den kompletten Testprozess übernehmen? Und die nicht so philosophische Frage für Pragmatiker, um die es hier hauptsächlich gehen soll: Was ist aktuell bereits praktisch umsetzbar und nicht nur vermutete Zukunftsmusik, die in der Ferne dumpf zu hören ist?