De Autoriteit Persoonsgegevens (AP) komt met een verrassend scherpe kernboodschap in haar visie op generatieve artificiële intelligentie (ai): je kunt ai alleen verantwoord inzetten als je vanaf dag één stuurt op waarden, governance en controleerbaarheid – niet op hype, snelheid of technische mogelijkheden.
De privacywaakhond stelt in het visiedocument ‘Verantwoord vooruit‘ dat organisaties niet moeten beginnen met de vraag ‘wat kan ai technologisch?’, maar bij ‘wat vinden wij acceptabel?’ Het is zaak om expliciet te maken welke waarden leidend zijn (veiligheid, autonomie, non-discriminatie, transparantie) en ai-toepassingen daaraan toetsen.
Tweede boodschap is om geen oncontroleerbare systemen te introduceren. Black-box-systemen zijn onacceptabel in kritieke processen. It-beslissers moeten kunnen uitleggen hoe een model werkt en welke data erin zitten. Belangrijk ook is duidelijk te maken welke risico’s een ai-model introduceert en hoe fouten worden opgespoord en gecorrigeerd.
Actief sturen
Generatieve ai verwerkt vaak meer persoonsgegevens dan nodig, stelt de AP. De waakhond verwacht dat organisaties actief sturen op minimale input, veilige prompts, geen ongecontroleerde datastromen naar leveranciers en duidelijke bewaartermijnen. Ai mag geen systemen creëren die mensen sturen, beïnvloeden of afhankelijk maken. Toepassingen die autonomie ondermijnen, worden als hoog risico gezien.
Veel aandacht verdient de ai-governance. Denk aan helder ai-beleid, duidelijke rollen en verantwoordelijkheden, audits en impactanalyses alsmede incidentmanagement voor ai. De AP is duidelijk: sommige toepassingen zijn per definitie onaanvaardbaar, ook als ze technisch mogelijk zijn. Voorbeelden: monitoring van werknemers, risicoprofielen zonder menselijke controle, of systemen die autonomie ondermijnen.
De AP vindt dat organisaties generatieve ai vaak te snel inzetten, zonder vooraf voldoende aandacht te besteden aan de gevolgen voor mensen en samenleving.
Toekomstbeelden
In haar visiedocument beschrijft de AP drie onwenselijke toekomstbeelden. In een Wilde Westen-scenario groeit generatieve ai zonder duidelijke regels. In een scenario van gemiste kansen valt Europa stil, doordat complexe en onduidelijke wet- en regelgeving leidt tot onzekerheid. In een bunker-scenario belemmert overmatige voorzichtigheid innovatie.
Aleid Wolfsen, voorzitter van de AP: ‘Generatieve ai is nog bestuurbaar. Maar alleen als we nu kiezen voor waarden als uitgangspunt, en niet voor snelheid als norm.’ Daarom pleit de AP voor een vierde koers: waarden aan het werk. De AP koerst daarmee op ruimte voor innovatie, met bescherming van democratie, grondrechten en onderling vertrouwen.
Juridische analyse
De AP heeft een jaar de tijd genomen om deze visie af te ronden. De visie is opgesteld met inbreng van bedrijven, experts en maatschappelijke organisaties en weerspiegelt daardoor ook inzichten uit de samenleving.
De AP publiceert rond april een handreiking met een juridische analyse op AVG-aspecten van de ontwikkeling en inzet van generatieve ai-modellen. De nu gepubliceerde visie bevat een lijst aandachtspunten waar bestuurders op moeten letten bij de inzet van generatieve ai. Handig ook is een schematische weergave van lagen en ontwikkelingen van generatieve ai. Verder vind je er een beheersingskader voor verantwoorde generatieve ai.
