Bescherming nodig tegen 'schadelijke' algoritmen

Het kabinet gaat nader bekijken of er maatregelen nodig zijn voor het tegengaan van eventuele negatieve effecten van algoritmen op consumenten.

Dit blijkt uit de reactie van het kabinet op drie studies die op verzoek van minister Sander Dekker (Rechtsbescherming) en zijn collega's van Binnenlandse Zaken en Economische Zaken zijn gedaan naar de ongewenste effecten van zelflerende algoritmen. De Kamerleden Joba van den Berg (CDA) en Martin Wörsdörfer (VVD) hebben daar via een motie begin 2019 om gevraagd. Hun vrees is dat beleid en wetgeving onvoldoende zijn toegesneden op de risico's rondom algoritmen.

De bevindingen wijzen uit dat onvoorziene effecten een drietal grondoorzaken hebben. Deze gelden voor zowel regelgebaseerde als zelflerende algoritmen. 

De eerste oorzaak is een onvolledig of verkeerd begrip van de probleemruimte, de omgeving waarbinnen kunstmatige intelligentie wordt ingezet en waarbinnen het specifieke doelstellingen moet bereiken. Ook komt het voor dat het algoritme niet goed is toegerust op de complexe omgeving waarbinnen het wordt ingezet. Derde veel voorkomende fout is dat het algoritme niet goed wordt ingepast in een bredere (socio-technische) context. De onderzoekers lichten duidelijk toe hoe zelflerende algoritmen de kans vergroten op onvoorziene effecten. Om dit risico te verkleinen moeten de drie eerder genoemde grondoorzaken worden ingeperkt. 

Knelpunten

"Het zou goed zijn als het Europees Comité dat toeziet op de consequente toepassing van de privacywet "

Het kabinet denkt dat de algemene juridische kaders toekomstbestendig zijn als het gaat om non-discriminatie, gegevensbescherming en rechtsbescherming. Wel zijn er enkele knelpunten. Het begrip 'geautomatiseerde besluitvorming’ moet verder worden aangescherpt.

Volgens de AVG is dit soort besluitvorming verboden tenzij er sprake is van menselijke tussenkomst. Bij de moderatie van content door online-platformen is het maar de vraag of deze uitzondering wel terecht is, wanneer die tussenkomst bijna niets voorstelt. Volgens het kabinet prevaleert dan het verbod, maar het zou goed zijn als het Europees Comité dat toeziet op de consequente toepassing van de privacywet (AVG) hier meer duidelijkheid over verschaft. De Autoriteit Persoonsgegevens (AP) heeft ai en algoritmen in elk geval als focusgebied voor de komende jaren aangemerkt.  

Etnische afkomst

Een ander knelpunt betreft het testen met bijzondere persoonsgegevens. Zo is volgens de AVG het verwerken van iemands etnische afkomst verboden. Maar volgens het onderzoek dat het kabinet heeft laten doen naar de juridische aspecten van algoritmen die besluiten nemen, moet van dat verband af te wijken zijn. Het verwerken van zulke gegevens zou juist helpen bij het voorkomen van discriminatie in het model van de werkelijkheid dat ligt besloten in een algoritme. Het kabinet bekijkt of hiervoor een wettelijke grondslag kan komen.

Verder blijkt dat door de technologische ontwikkeling onzekerheid ontstaat over de vraag of de AVG op bepaalde gegevenssets van toepassing is.

Een probleem is dat het begrip persoonsgegevens vervaagt. De AVG geldt alleen voor de verwerking van persoonsgegevens. Volgens het onderzoek zullen gegevenssets door de inzet van algoritmische modellen eerder persoons­gegevens bevatten, omdat verbanden in voorheen anonieme gegevenssets kunnen worden gevonden. Er bestaan technische mogelijkheden om persoonsgegevens te anonimiseren, waardoor de AVG niet meer zou gelden. Om hier klaarheid in te brengen, zal het kabinet nader onderzoek laten verrichten.

Bewijslast

Verder wordt bekeken of de richtlijn productaan­spra­kelijkheid aanpassing behoeft met het oog op nieuwe technologie, waaronder het gebruik van software. Juridisch is de producent aansprakelijk voor een gebrekkig product. Bij zelfrijdende auto's kunnen zelflerende algoritmen het zicht ontnemen op de toedracht van een ongeluk. Onderzoekers hebben de mogelijkheid geopperd om in zo'n geval de bewijslast te verlichten of om te keren.

Het kabinet vindt dat er voldoende rechtsbescherming bestaat tegen grote dataverwerkingsprocessen. Wel bestaan er twijfels over de kennis van advocaten en rechters in bepaalde zaken. Dit geldt met name voor data-analyse en algoritmegebruik. Een probleem is ook dat burgers moeilijk kunnen zien of een big data-analyse onrechtmatig is.

x

Om te kunnen beoordelen moet u ingelogd zijn:

Dit artikel delen:

Reacties

Het is de overheid al jaren een doorn in het oog dat men niet of nauwelijks vat heeft op het internetverkeer. Daardoor worden investeringen om overheidsmeningen via de NPO door te drukken teniet gedaan. Door het bestrijden van algoritmes die gelijkgestemden dichter bij elkaar brengen hoopt men op meer verdeeldheid en zo meer invloed op het electoraat via de veelheid aan overheidsgetrouwe opiniërende programma's op de publieke omroep.

'Het kabinet vindt dat er voldoende rechtsbescherming bestaat tegen grote dataverwerkingsprocessen.' Dat klinkt — excuseer de hardheid — als 'onbewust onbekwaam'. En als je weten wil waarom dat naïef is, zie de reactie van R.J. Tuijnman hierboven.

Zie: https://ea.rna.nl/all-that-it-what-is-it-doing-to-us/ (m.n. art. 3 en 4), ook het onderwerp van mijn online IASA (wereldwijde IT architecten associatie) presentatie afgelopen donderdag.

En als je hem kunt vinden is de documentaire "The Brainwashing of my Dad" ook aardig.

Nieuwsbrief

Wil je dagelijks op de hoogte gehouden worden van het laatste ict-nieuws, trends en ontwikkelingen? Abonneer je dan op onze gratis nieuwsbrief.

Vul een geldig e-mailadres in

Stuur dit artikel door

Uw naam ontbreekt
Uw e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×
article 2020-11-24T12:35:00.000Z Alfred Monterie


Wilt u dagelijks op de hoogte worden gehouden van het laatste ict-nieuws, achtergronden en opinie?
Abonneer uzelf op onze gratis nieuwsbrief.