TNO pleit voor proeftuinen voor verantwoordelijke ai

Kas tuinbouw bloemen

TNO heeft plannen om proeftuinen voor verantwoordelijke artificial intelligence (responsible ai) in te richten. Door de toepassing van ai voor algoritmische besluitvorming eerst in een experimentele omgeving te laten plaatsvinden, zijn de nadelen van ai-systemen aan het licht te brengen.

Dit blijkt uit een rapport dat TNO heeft opgesteld. De overheid kan niet zomaar besluiten gaan nemen waarbij een algoritme de uitkomst bepaalt. TNO vindt dat bloedlink, zeker als ai invloed heeft op het leven van burgers. Dit geldt bijvoorbeeld als ai wordt ingezet om te bepalen of iemand in aanmerking komt voor schuldhulpverlening.

In zo’n geval dreigen onbedoelde nadelige gevolgen. Eerdere onderzoeken van het Rathenau Instituut, de Algemene Rekenkamer en TNO wijzen op dit soort risico’s. Zo kan het fout gaan als vooringenomenheid in data of in een algoritme sluipt. Dat leidt al gauw tot discriminatie.

Normenkaders

Ook bij het verkennen van maatschappelijke vraagstukken is het van belang eerst experimenten te doen. In een proeftuin kunnen tijdig de risico’s in kaart worden gebracht die zich voordoen bij de ontwikkeling van ai-systemen. Het opstellen van normenkaders vooraf en de toetsing van de systemen achteraf zijn onvoldoende om ongewenste negatieve effecten te voorkomen. De belangrijkste aanbeveling van TNO is de ai-systemen in proeftuinen stapsgewijs te beproeven.

Elk stap kent eigen risico’s: van het genereren van gegevens tot verzameling en bewerking. En van het gekozen ai-model tot aan de uitkomsten van het systeem. Bovendien biedt zo’n experimentele opzet de gelegenheid om verschillende betrokkenen waaronder burgers te laten meedenken.

In dit verband is een methodiek toe te passen voor de toetsing van verantwoordelijke ai-systemen. TNO ontwikkelde daartoe de dynamische impact assessment. In de ontwerpfase worden burgers en andere stakeholders betrokken. Dit gebeurt om de verschillende belangen mee te wegen. Antwoord zal moeten worden gegeven op de vraag wat het gerechtvaardigd belang is om data en ai in te zetten

In de demonstratiefase komt de vraag aan de orde of burgers voldoende begrijpen hoe het systeem werkt. En wat voor impact dit op hun leven kan hebben. Andere kwesties zijn of datasets correct of vooringenomen zijn. En of algoritmen tot discriminatie of uitsluiting leiden. Verder gaat het om transparantie, uitlegbaarheid en de inrichting van menselijke controle. Bij de implementatiefase horen vragen als hoe kunnen we burgers uitleg geven over de werking van ai-systemen. Ook de langetermijnimpact verdient aandacht. Als systemische effecten dreigen moet hierop controle mogelijk zijn.

Bijsluiter

Kern van de aanpak is dat de verschillende belangen gedurende het experiment meedoen met de toepassing van het ai-systeem. Bovendien moet op dynamische wijze controle worden uitgeoefend op de toepassing van ai-systemen. Verder moet het ai-systeem desgewenst aan te passen zijn. Belangrijk is ook dat de resultaten op begrijpelijke wijze worden gecommuniceerd. Gedurende de toepassing wordt gerapporteerd wat de risico’s en impact zijn. Hiervoor wordt een gestandaardiseerde ‘bijsluiter’ ontwikkeld die begrijpelijk is voor burgers.

x

Om te kunnen beoordelen moet u ingelogd zijn:

Dit artikel delen:

Nieuwsbrief

Wil je dagelijks op de hoogte gehouden worden van het laatste ict-nieuws, trends en ontwikkelingen? Abonneer je dan op onze gratis nieuwsbrief.

Vul een geldig e-mailadres in

Stuur dit artikel door

Uw naam ontbreekt
Uw e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×
article 2021-06-23T10:52:00.000Z Alfred Monterie


Wilt u dagelijks op de hoogte worden gehouden van het laatste ict-nieuws, achtergronden en opinie?
Abonneer uzelf op onze gratis nieuwsbrief.