De opkomst van kunstmatige intelligentie (AI) wekte hoge verwachtingen in de wereld van softwaretesten. Zelflerende testsuites, automatisch gegenereerde testgevallen en voorspellende kwaliteitsmodellen klonken veelbelovend. Maar inmiddels is het tijd voor een realistische balans. Want hoewel AI op veel gebieden vooruitgang boekt, blijkt de daadwerkelijke impact op het testvak minder dan verwacht.
De initiële belofte van AI binnen softwaretesten klonk verleidelijk. Machines die zelf tests genereren op basis van requirements of gebruikersgedrag. Algoritmen die regressietests optimaliseren op basis van risico. AI die onderhoud van testautomatisering grotendeels overbodig maakt. De verwachtingen: minder repetitief werk, snellere feedback en beter risicomanagement. Helaas bleef een fundamentele omslag in het softwaretesten uit. Waar testautomatisering vaak worstelt met onderhoud en stabiliteit, biedt AI zelden een structurele oplossing. De meeste AI-toepassingen in softwaretesten zijn sterk gericht op smalle domeinen:
- Visuele regressie via beeldvergelijking (zoals bij Applitools of Percy): nuttig, maar eerder een evolutie dan een revolutie.
- Testprioritering en flaky testdetectie binnen CI/CD: waardevol in de keten, maar weinig invloed op de teststrategie.
- Automatische updates van locators in UI testautomatisering: lijkt handig, maar kan regressie maskeren.
Waarom blijft de impact op het softwaretesten uit? Een belangrijke oorzaak is dat testen meer is dan verificatie. Het is contextgedreven kwaliteitsdenken. Testen bevindt zich op het snijvlak van techniek, businesslogica en risico-inschatting. AI mist voor goede uitvoering het noodzakelijke domeinbegrip. Hierdoor blijft de kloof tussen belofte en praktijk bestaan.
Op dit moment biedt AI vooral operationele ondersteuning in specifieke deelgebieden, zoals analyse van grote hoeveelheden logging en monitoringdata en door middel van slimme dashboards die trends in defecten of performance visualiseren. Natural language processing door LLM’s helpt bij requirementsanalyse, opstellen van testgevallen, structureren en opstellen van testrapportages en genereren van testautomatisering. Maar in deze context fungeert AI als assistent, niet als vervanger van de tester. Het verhoogt de efficiëntie, maar neemt zou geen verantwoordelijkheid over moeten nemen. Het is belangrijk dat de mens altijd betrokken blijft om de resultaten te interpreteren en bij te sturen.
De werkelijke impact van AI zit niet in het automatiseren van het testvak, maar in het testen van AI zelf. Naarmate systemen vaker AI bevatten, van LLM’s tot voorspellende modellen, groeit de behoefte aan nieuwe testvormen. Traditioneel gaat softwaretesten uit van voorspelbare logica, terwijl AI-modellen patronen leren die vaak niet inzichtelijk of herhaalbaar zijn. Dit vraagt om nieuwe testvormen waarbij samenwerking nodig is met disciplines zoals data science, compliance en ethiek. Enkele voorbeelden van nieuwe testvormen die gebruikt kunnen worden bij het testen van AI zijn:
- Fairness testing: valideren of een model verschillende groepen juridisch en maatschappelijk eerlijk behandelt.
- Bias detectie: expliciete technische analyse van onbedoelde vooroordelen in het modelgedrag.
- Uitlegbaarheidsassessments: controleren of aan een eindgebruiker of toezichthouder uitgelegd kan worden hoe een AI-model werkt. Denk hierbij aan waarom het model een bepaalde beslissing heeft gemaakt, welke inputfactoren hiervoor bepalend waren en in hoeverre de uitleg betrouwbaar en herhaalbaar is.
- Robustness testing: kijken hoe een model reageert op onjuiste, incomplete of misleidende input.
AI heeft het testvak niet overbodig gemaakt, maar dwingt wel tot reflectie en vernieuwing. De hype is er zeker, maar effectieve autonome test agents zijn er niet. In plaats van te wachten op een doorbraak, is het tijd om AI pragmatisch te benaderen: als hulpmiddel, niet als wondermiddel. Testers blijven onmisbaar voor de interpretatie, validatie en ethische beoordeling van softwarekwaliteit, juist als die software steeds slimmer wordt en ontwikkelaars steeds vaker gebruik maken van AI. Maak gebruik van ondersteunende tools, maar controleer de uitkomsten en blijf zelf aan het roer. Testers die nu leren AI-systemen te toetsen, zijn straks onmisbaar bij zowel innovatie als compliance.
Auteur: Jeroen Mengerink werkt bij Polteq als testarchitect en trainer. Hij helpt organisaties softwarekwaliteit te verbeteren en is medeontwikkelaar van Quala, een tool die softwarearchitectuur koppelt aan kwaliteitsinformatie.
Deze blog verscheen eerder op: https://www.polteq.com/nieuwsberichten/ai-in-softwaretesten-tussen-belofte-en-werkelijkheid/