Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Computable Awards
    • Overzicht
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Nieuwsbrief

Bescherming nodig tegen ‘schadelijke’ algoritmen

24 november 2020 - 11:374 minuten leestijdActueelInnovatie & TransformatieMinisterie van BZKMinisterie van EZK
Alfred Monterie
Alfred Monterie

Het kabinet gaat nader bekijken of er maatregelen nodig zijn voor het tegengaan van eventuele negatieve effecten van algoritmen op consumenten.

Dit blijkt uit de reactie van het kabinet op drie studies die op verzoek van minister Sander Dekker (Rechtsbescherming) en zijn collega’s van Binnenlandse Zaken en Economische Zaken zijn gedaan naar de ongewenste effecten van zelflerende algoritmen. De Kamerleden Joba van den Berg (CDA) en Martin Wörsdörfer (VVD) hebben daar via een motie begin 2019 om gevraagd. Hun vrees is dat beleid en wetgeving onvoldoende zijn toegesneden op de risico’s rondom algoritmen.

De bevindingen wijzen uit dat onvoorziene effecten een drietal grondoorzaken hebben. Deze gelden voor zowel regelgebaseerde als zelflerende algoritmen. 

De eerste oorzaak is een onvolledig of verkeerd begrip van de probleemruimte, de omgeving waarbinnen kunstmatige intelligentie wordt ingezet en waarbinnen het specifieke doelstellingen moet bereiken. Ook komt het voor dat het algoritme niet goed is toegerust op de complexe omgeving waarbinnen het wordt ingezet. Derde veel voorkomende fout is dat het algoritme niet goed wordt ingepast in een bredere (socio-technische) context. De onderzoekers lichten duidelijk toe hoe zelflerende algoritmen de kans vergroten op onvoorziene effecten. Om dit risico te verkleinen moeten de drie eerder genoemde grondoorzaken worden ingeperkt. 

Knelpunten

Het kabinet denkt dat de algemene juridische kaders toekomstbestendig zijn als het gaat om non-discriminatie, gegevensbescherming en rechtsbescherming. Wel zijn er enkele knelpunten. Het begrip ‘geautomatiseerde besluitvorming’ moet verder worden aangescherpt.

Volgens de AVG is dit soort besluitvorming verboden tenzij er sprake is van menselijke tussenkomst. Bij de moderatie van content door online-platformen is het maar de vraag of deze uitzondering wel terecht is, wanneer die tussenkomst bijna niets voorstelt. Volgens het kabinet prevaleert dan het verbod, maar het zou goed zijn als het Europees Comité dat toeziet op de consequente toepassing van de privacywet (AVG) hier meer duidelijkheid over verschaft. De Autoriteit Persoonsgegevens (AP) heeft ai en algoritmen in elk geval als focusgebied voor de komende jaren aangemerkt.  

Etnische afkomst

Een ander knelpunt betreft het testen met bijzondere persoonsgegevens. Zo is volgens de AVG het verwerken van iemands etnische afkomst verboden. Maar volgens het onderzoek dat het kabinet heeft laten doen naar de juridische aspecten van algoritmen die besluiten nemen, moet van dat verband af te wijken zijn. Het verwerken van zulke gegevens zou juist helpen bij het voorkomen van discriminatie in het model van de werkelijkheid dat ligt besloten in een algoritme. Het kabinet bekijkt of hiervoor een wettelijke grondslag kan komen.

Verder blijkt dat door de technologische ontwikkeling onzekerheid ontstaat over de vraag of de AVG op bepaalde gegevenssets van toepassing is.

Een probleem is dat het begrip persoonsgegevens vervaagt. De AVG geldt alleen voor de verwerking van persoonsgegevens. Volgens het onderzoek zullen gegevenssets door de inzet van algoritmische modellen eerder persoons­gegevens bevatten, omdat verbanden in voorheen anonieme gegevenssets kunnen worden gevonden. Er bestaan technische mogelijkheden om persoonsgegevens te anonimiseren, waardoor de AVG niet meer zou gelden. Om hier klaarheid in te brengen, zal het kabinet nader onderzoek laten verrichten.

Bewijslast

Verder wordt bekeken of de richtlijn productaan­spra­kelijkheid aanpassing behoeft met het oog op nieuwe technologie, waaronder het gebruik van software. Juridisch is de producent aansprakelijk voor een gebrekkig product. Bij zelfrijdende auto’s kunnen zelflerende algoritmen het zicht ontnemen op de toedracht van een ongeluk. Onderzoekers hebben de mogelijkheid geopperd om in zo’n geval de bewijslast te verlichten of om te keren.

Het kabinet vindt dat er voldoende rechtsbescherming bestaat tegen grote dataverwerkingsprocessen. Wel bestaan er twijfels over de kennis van advocaten en rechters in bepaalde zaken. Dit geldt met name voor data-analyse en algoritmegebruik. Een probleem is ook dat burgers moeilijk kunnen zien of een big data-analyse onrechtmatig is.

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Slimme connectiviteit: de toekomst van bouwen

    Hoe stoom jij jouw organisatie in de bouw en installatie sector klaar voor de digitale toekomst?

    Computable.nl

    Design Sprints: 4 dagen van idee naar prototype

    Hoe zet je in vier dagen tijd een gevalideerd prototype neer met Design Sprints?

    Computable.nl

    Dit is de weg naar informatietransformatie

    In een wereld waar data en informatie centraal staan, moeten organisaties zich aanpassen aan de digitale toekomst. Informatietransformatie is de sleutel tot het versterken van beveiliging en het bevorderen van efficiëntie.

    Meer lezen

    ActueelInnovatie & Transformatie

    Gemeenten worstelen met mensenrechten bij ai

    OpinieData & AI

    Vijf standaardacties om je bedrijfsdata te beschermen

    ActueelData & AI

    Gemeenten gebruiken algoritmes voor risicoprofilering

    2 reacties op “Bescherming nodig tegen ‘schadelijke’ algoritmen”

    1. R.J. Tuijnman schreef:
      24 november 2020 om 13:17

      Het is de overheid al jaren een doorn in het oog dat men niet of nauwelijks vat heeft op het internetverkeer. Daardoor worden investeringen om overheidsmeningen via de NPO door te drukken teniet gedaan. Door het bestrijden van algoritmes die gelijkgestemden dichter bij elkaar brengen hoopt men op meer verdeeldheid en zo meer invloed op het electoraat via de veelheid aan overheidsgetrouwe opiniërende programma’s op de publieke omroep.

      Login om te reageren
    2. Gerben Wierda schreef:
      24 november 2020 om 15:51

      ‘Het kabinet vindt dat er voldoende rechtsbescherming bestaat tegen grote dataverwerkingsprocessen.’ Dat klinkt — excuseer de hardheid — als ‘onbewust onbekwaam’. En als je weten wil waarom dat naïef is, zie de reactie van R.J. Tuijnman hierboven.

      Zie: https://ea.rna.nl/all-that-it-what-is-it-doing-to-us/ (m.n. art. 3 en 4), ook het onderwerp van mijn online IASA (wereldwijde IT architecten associatie) presentatie afgelopen donderdag.

      En als je hem kunt vinden is de documentaire “The Brainwashing of my Dad” ook aardig.

      Login om te reageren

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Abonneren Magazine
    • Cybersec e-Magazine

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs