Het lukt het kabinet niet meer dit jaar nog met een totale visie op generatieve ai (gen-ai) te komen. De Tweede Kamer kan zo’n integraal beeld van de impact die deze technologie heeft op onze maatschappij en de uitdagingen en mogelijkheden die hiermee zijn gemoeid, in het eerste kwartaal van volgend jaar tegemoet zien. Dit blijkt uit een brief van demissionair staatssecretaris Alexandra van Huffelen (Digitalisering) aan de Tweede Kamer.
Over het gebruik van gen-ai bij de Rijksoverheid intern komt er in de loop van 2024 meer duidelijkheid. Extra onderzoek is nodig om te bepalen in welke toepassingsgebieden gen-ai verantwoord kan worden ingezet. Gelet op de snelle technologische ontwikkeling is een definitief standpunt niet aan de orde. Eerst is het zaak om kennis en ervaring op te doen met de verantwoorde inzet van ai na bredere ethische beraadslaging.
Verder dan een voorlopig standpunt komt het kabinet niet. De vorige maand leek het erop dat Van Huffelen rijksambtenaren meteen al het gebruik wilde ontzeggen van bepaalde chatbots en ai-software waarmee afbeeldingen zijn te maken.
Komt het vooralsnog niet tot een categorisch verbod op de technologie, wel moeten gebruikers goed opletten dat ze geen wet- en regelgeving overtreden. Want als dat risico bestaat, mag het niet. Zo blijft het mogelijk te experimenteren met gen-ai. In beginsel is het gebruik niet toegestaan van gratis versies van ai-software als ChatGPT, Bard en Midjourney. Deze niet-gecontracteerde gen-ai-toepassingen voldoen over het algemeen niet aantoonbaar aan de geldende privacy- en auteursrechtelijke wetgeving.
Risicoanalyse
Om vast te stellen welke specifieke vorm van inzet van gen-ai wel of niet mogelijk is, dient voorafgaand aan het gebruik ervan per unieke casus een risicoanalyse te worden uitgevoerd. Dit zijn een (pre-scan) Data Protection Impact Assessment (DPIA) en een algoritme-impact-assessment (zoals een Impact Assessment Mensenrechten en Algoritmes (IAMA), waarin de risico’s en risicobeperkende maatregelen worden vastgesteld.
Aan de cio van het betrokken ministerie en de functionaris gegevensbescherming moeten de uitkomsten van deze analyse eerst worden voorgelegd voordat ambtenaren met ai aan de gang kunnen gaan. Dit geldt ook voor gen-ai-toepassingen gebaseerd op opensource.