Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Computable Awards
    • Overzicht
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Nieuwsbrief

Data honger versus data privacy

28 januari 2020 - 07:445 minuten leestijdOpinieData & AI
Rein Mertens
Rein Mertens

Nederland en Europa staan op een kruispunt wat betreft artificial intelligence (kunstmatige intelligentie, ai). Moeten we ons focussen op innovatie om de inhaalslag te maken ten opzichte van de Verenigde Staten en China of allereerst zorgen dat we de juiste kaders scheppen om deze innovatie in goede banen te leiden?

Waar ze in de VS pleiten voor een ‘vrijer’ gebruik van data om innovatie te versnellen, kiest Europa voor een langere route met Europese en lokale richtlijnen voor ai-gebruik en af en toe een druk op de pauzeknop, zoals mogelijk met het verbieden van gezichtsherkenning in publieke ruimtes (zie dit artikel).

Ai ethisch ingezet

Je mag gerust spreken van fundamentele keuzes, want met betrekking tot ai is er – net als met veel andere technologie – geen weg terug. Met dit verschil dat ai veel meer disruptie-potentieel heeft dan alle eerdere technologiegolven die we de afgelopen veertig jaar hebben gezien. Het is dus terecht dat Europese overheden, organisaties en – met name – individuen garanties willen hebben over de impact van algoritmes, modellen, diep-lerende machines en robot-gestuurde processen. Ze willen het vertrouwen hebben dat ai ethisch ingezet wordt en hen niet op een later moment in de staart kan bijten.

Omdat vertrouwen te voet komt en te paard gaat, moeten we de komende jaren investeren in een structuur die vertrouwen wekt en rechtvaardigt. Dat blijkt in de praktijk best lastig. Het succes van ai is direct verbonden met de beschikbare data, of dat nu gestructureerde of ongestructureerde data in de vorm van tekst, foto’s of videobeelden betreft. Data is een randvoorwaarde om ai-toepassingen goed te kunnen laten werken, waarbij het privacy-aspect rondom deze data uiteraard een hele belangrijke rol speelt.

Als je al die data moet gebruiken voor een ai-toepassing, heb je dan ook inzicht in welke data er in welke vorm beschikbaar is en waar deze data voor gebruikt mag worden? Welke maatregelen zijn er dan nodig om te voldoen aan de wet- en regelgeving, om discriminatie (bias) uit te sluiten en transparantie te kunnen bieden (welke algoritmes, hoe komen keuzes tot stand)? 

Beeldvorming rondom ai

Het voorbeeld van ‘crime prediction ai’ dat in de Verenigde Staten werd gebruikt om criminaliteit in bepaalde wijken te voorspellen en dat vooroordeel bevestigend bleek, is genoegzaam bekend. Of dat Amazon een algoritme gebruikte om cv’s van sollicitanten te analyseren, en erachter kwam dat de uitkomst niet helemaal discriminatie-vrij was. En zo zijn er meer voorbeelden te noemen, die niet echt helpen bij een positieve beeldvorming rondom ai. Wat is daarvoor dan wel nodig? Als het gaat om het bewerkstelligen van vertrouwen in ai, worden vaak de volgende criteria aangehaald: transparantie, uitlegbaarheid en aansprekende resultaten.

Het ‘black box’-principe, dat momenteel vaak nog een manier is om ai-modellen uit te rollen, is niet langer houdbaar. Mensen accepteren nu nog vaak ongelezen de gebruiksvoorwaarden van een app, waardoor hun data via realtime marktplaatsen verhandeld kan worden. Hierin is inmiddels  al een kentering opgetreden; al dan niet onder invloed van wet- en regelgeving zoals de AVG krijgen mensen meer de beschikking en controle over hun data. Voor organisaties die ai-toepassingen bouwen, betekent dit dat ze inzichtelijk moeten maken welke data ze op welke manier gebruikt hebben voor hun modellen en dat ze toestemming hebben om deze data te gebruiken.

Daarbij is het belangrijk om op te merken dat mensen eerder geneigd zijn om hun gegevens beschikbaar te stellen aan organisaties die in staat zijn om hun vertrouwen te winnen. Dit zorgt ervoor dat hun ai-toepassingen beter kunnen inspelen op de behoeften en wensen van hun klanten. Het is vanuit dat standpunt logisch dat betrouwbaarheid, de bruikbaarheid en daarmee ook de herleidbaarheid van data bij veel organisaties bovenaan de agenda staat, en dat organisaties een beter inzicht willen krijgen in de hele data levenscyclus.

Inzicht en overzicht

Hieruit vloeit de behoefte voort aan een zogenaamde data of asset catalog, een omgeving waarin je eenvoudig data kunt zoeken en vinden en die inzicht biedt in de kwaliteit van de data. Veel organisaties die over grote hoeveelheden data beschikken, richten momenteel een dergelijke catalogus in of bereiden er één voor. Hoewel de behoefte vaak primair ontstaat om inzicht te verkrijgen in alle beschikbare data, kunnen deze data na indexering en (automatisch gecreëerde) tags verrijkt worden met wat voor data het betreft, voorstellen rondom data schoning, betekenis en met de voorwaarden voor gebruik.

Tot slot kunnen we stellen dat ai met een grote waarschijnlijkheid een positieve impuls kan geven aan de maatschappij, bijvoorbeeld op het gebied van arbeidsproductiviteit, gezondheid en klimaat, zoals ook eind vorig jaar verwoord in het Strategisch Actieplan voor artificiële intelligentie van het ministerie van Economische Zaken en Klimaat. Maar we moeten niet alle risico’s negeren door blind allerlei innovaties de markt in te duwen; volg de weg der geleidelijkheid en win het vertrouwen, zonder voorbij te gaan aan de data privacy en ethische aspecten.

Meer over

AppsBiometrieKunstmatige intelligentiePrivacy

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Bouw de AI-organisatie niet op los zand

    Wat is de afweging tussen zelf bouwen of het benutten van cloud?

    Computable.nl

    De weg van dataverzameling naar impact

    Iedere organisatie heeft data, maar niet iedereen weet hoe je het goed gebruikt. Hoe zet je waardevolle informatie om in actie?

    Computable.nl

    In detail: succesvolle AI-implementaties

    Het implementeren van kunstmatige intelligentie (AI) biedt enorme kansen, maar roept ook vragen op. Deze paper beschrijft hoe je als (middel)grote organisatie klein kunt starten met AI en gaandeweg kunnen opschalen.

    Meer lezen

    ActueelCloud & Infrastructuur

    ‘Informatie over inzet persoonlijke data moet beter’

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Uitgelicht

    Partnerartikel
    AdvertorialInnovatie & Transformatie

    Computable Insights

    Een ai-agent die klantvragen afhandelt. Dat is een van de nieuwste troeven van softwareproducent Salesforce, dat daarmee meesurft op de...

    Meer persberichten

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Abonneren Magazine
    • Cybersec e-Magazine

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs