Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Computable Awards
    • Overzicht
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Nieuwsbrief
Big data

Big data: voor al uw vooroordelen

01 juli 2016 - 12:124 minuten leestijdMagazineData & AI
René Veldwijk
René Veldwijk

Patronen ontdekken in heel veel data. Veel mensen vinden het opwindend, maar slechts weinigen zien de keerzijde van deze medaille.

Terwijl ik dit stukje schrijf is er ophef. Een Zwolse politieagent houdt een donkere jongeman in een dure witte auto staande, de succesvolle rapper Typhoon. Voor de agent geldt dat de combi donker-man-limo wijst op drugsgeld en hij geeft dat ook eerlijk toe. Iedereen boos. Excuses van de politie voor ‘racial profiling’, niet voor het staande houden van wie dan ook op zo’n wankele basis. Immers, zelfs als jonge zwarte mannen in dure auto’s honderd keer vaker in drugs doen dan blanke besjes in een Aygo, zullen de meeste van die mannen toch niet drugscrimineel zijn.

Gedachtenexperiment

Wat de rapper overkwam gaat veel meer burgers overkomen. Bedrijven en overheden zijn helemaal in de big data. Het recept? Verzamel data, veelsoortige data, liefst gedragsdata, ‘crunch’ die data en vind marketingtargets, fraudeurs, jihadisten en liefdespartners!

We doen een gedachtenexperiment: we stoppen alle data waarover de overheid beschikt in een databucket en gaan op zoek naar patronen. Grote kans dat onze rapper dan ook als een potentiële crimineel naar voren komt. Die agent is namelijk niet gek. Hoewel. Misschien zijn agenten toch racisten en vinden ze vooral jonge, donkere drugscriminelen omdat witte oude taarten nooit worden gecontroleerd en daardoor buiten de relevante crimi-bestanden blijven. Ook big data zijn vaak de neerslag van selectieve waarneming en gegevensvastlegging. Alleen storen we ons minder aan een transparante agent dan aan een software-orakel. Mensen zijn immers racistisch. Racisme is emotie en software is emotieloos. Niet dus.

Mooie patronen

Er speelt nog iets anders. De software van vandaag is onredelijk en niet accountable. Wie in big data struint, vindt redelijke en onredelijke, permanente en tijdelijke patronen. Een patroonzoekend programma kan er net zo goed naast zitten als een agent, maar zal anders dan die agent meestal geen begrijpelijke regel formuleren. Tegenover veel meer data en rekenkracht dan waarover een mens beschikt staat vooralsnog het ontbreken van redelijkheid en ‘judgment’ van software. Elvis Albers van 18 met zijn vlasbaardje uit Oldeholtwolde kan zomaar worden aangewezen als kandidaat-jihadist, want heel veel van die lui hebben een naam die begint met ‘El’ of ‘Al’. Wie zal zeggen wat de software aan mooie patronen vindt?

Wat ik schrijf wordt al praktijk. Ik sprak een controleur van een overheidsbedrijf die mij vertelde hoe hij fraudeurs opspoort. Hij stopt data uit verschillende systemen in een Excelletje en sorteert die op allerlei ratio’s. De buitenbeentjes bekijkt hij vervolgens meer in detail. Dat controlewerk was altijd gebaseerd op gekwantificeerde afwijkingen in bestanden met ouderwetse, gestructureerde gegevens van administratieve aard – oldschool small data van het ‘Text & Number’-type. Dat verdwijnt binnenkort. Zijn werkgever is bezig met een ict-project om fraudesignalen uit de data te halen met moderne, briljante patroonzoeksoftware. Een hele club van briljante academici was daarvoor ingehuurd. Mensen met domeinkennis, zoals mijn gesprekspartner, moesten vooral ver weg blijven.

Effectiviteitsmeting onmogelijk

Ik voorzie voor de komende jaren big data ict-projecten bij de vleet. Dergelijke projecten kunnen namelijk haast niet mislukken. Immers, als je niet weet wat je software doet dan wordt effectiviteitsmeting ook onmogelijk. We zien dat al bij de NSA-casus, waar grote twijfel bestaat aan de effectiviteit van terreurbestrijding op basis van big data.

Ondertussen is het niet mijn bedoeling om big data en patroonzoekende software permanent te debunken. Het is vooral een kwestie van rijpheid. Er is geen principiële reden om te veronderstellen dat software die patronen herkent deze niet kan formuleren in begrijpelijke, uitlegbare en toetsbare regels. Alleen is tot dat moment aanbreekt de interpreterende mens een onmisbaar onderdeel van geautomatiseerde systemen die speuren naar patronen in onvolledig gestructureerde data.

Controlefactor

Terug naar de agent en de rapper. Als econoom denk ik dat de vraag moet zijn hoeveel groter de kans is dat een donkere jongeman in een dure auto in drugs doet, vergeleken met pakweg de gemiddelde Computable-lezer. Laten we aannemen dat die kans twee keer groter is. Als jonge, donkere mannen in dure auto’s meer dan twee keer vaker dan Computable-lezers staande worden gehouden, dan is de politie racistisch en inefficiënt. Is de controlefactor lager dan twee dan is de politie politiek-hypercorrect en inefficiënt.

Het is laat geworden. Ik ga naar huis. Bovengemiddelde kans dat ik straks gecontroleerd word op drankgebruik. Autochtone man van middelbare leeftijd. Benidorm-sticker op de achterruit van de auto. The usual suspect.

Is onze politie racistisch, politiek-hypercorrect of juist evenwichtig? Ik zou het graag willen weten. Laat dit nou een prachtige vraag zijn voor een grondige analyse op basis van heel veel data, big data desnoods.

Dit artikel is ook verschenen in Computable Magazine, jaargang 49, nummer 6, zomer 2016.

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Bouw de AI-organisatie niet op los zand

    Wat is de afweging tussen zelf bouwen of het benutten van cloud?

    Computable.nl

    De weg van dataverzameling naar impact

    Iedere organisatie heeft data, maar niet iedereen weet hoe je het goed gebruikt. Hoe zet je waardevolle informatie om in actie?

    Computable.nl

    In detail: succesvolle AI-implementaties

    Het implementeren van kunstmatige intelligentie (AI) biedt enorme kansen, maar roept ook vragen op. Deze paper beschrijft hoe je als (middel)grote organisatie klein kunt starten met AI en gaandeweg kunnen opschalen.

    Meer lezen

    Verkeer
    ActueelCloud & Infrastructuur

    Wetenschappers creëren ‘kleinste harde schijf ooit’

    11 reacties op “Big data: voor al uw vooroordelen”

    Nieuwere reacties »
    1. Cordny Nederkoorn schreef:
      15 juli 2016 om 13:39

      Beste René,

      Mooi artikel. Dank hiervoor.
      Wat betreft je laatste onderzoeksvraag,
      Wie bepaalt wat racistisch, hypergevoelig of evenwichtig is en hoe stel je deze vraag?
      Een computer is gemaakt door een mens en volgt een bepaald algoritme.
      Dit algoritme is gemaakt door een mens en moet ervoor zorgen dat de computer zijn rekenkracht gebruikt om een bepaalde handeling te doen.
      Om bovenstaande onderzoeksvraag te beantwoorden moet de computer uit het algoritme halen wat de definities van racisme etc is en wat voor vraag de gebruiker kan stellen.
      En dan hebben we het nog niet gehad over de kansberekening die je gebruikt in je betoog en die het algoritme ook zou moeten gebruiken. En er zijn nog wel meer vragen te verzinnen.
      Oftewel complex en zeer fout gevoelig.
      Ik hoor het wel als ik zo’n algoritme mag testen. Dat wil ik dan wel samen doen met een domeindeskundige en een
      Briljante informatica-academicus.
      Dan kan ik mijn bevindingen laten controleren.
      Ik heb er nu al zin in.

      Login om te reageren
    2. Cordny Nederkoorn schreef:
      15 juli 2016 om 16:59

      Beste René,

      Mooi artikel. Dank hiervoor.
      Wat betreft je laatste onderzoeksvraag,
      Wie bepaalt wat racistisch, hypergevoelig of evenwichtig is en hoe stel je deze vraag?
      Een computer is gemaakt door een mens en volgt een bepaald algoritme.
      Dit algoritme is gemaakt door een mens en moet ervoor zorgen dat de computer zijn rekenkracht gebruikt om een bepaalde handeling te doen.
      Om bovenstaande onderzoeksvraag te beantwoorden moet de computer uit het algoritme halen wat de definities van racisme etc is en wat voor vraag de gebruiker kan stellen.
      En dan hebben we het nog niet gehad over de kansberekening die je gebruikt in je betoog en die het algoritme ook zou moeten gebruiken. En er zijn nog wel meer vragen te verzinnen.
      Oftewel complex en zeer fout gevoelig.
      Ik hoor het wel als ik zo’n algoritme mag testen. Dat wil ik dan wel samen doen met een domeindeskundige en een
      Briljante informatica-academicus.
      Dan kan ik mijn bevindingen laten controleren.
      Ik heb er nu al zin in.

      Login om te reageren
    3. Henri Koppen schreef:
      15 juli 2016 om 18:59

      René,

      Mooi zo’n betoog, maar als we je voorbeelden betrekken op de faal-industrie: Is het de fout van de software? van het (data) algoritme? Of van de eind gebruiker?

      Juist. De eindgebruiker. Want in je voorbeelden van fraude en racisme zie je dat de software een suggestie doet, of een kansberekening en die kunnen heel bruikbaar zijn. Dus op basis van de software krijg je een kansberekening. Meer X pleegt fraude, de zekerheid is 95%. Dat een controleur op basis van de gegeven informatie de verdachte behandeld als een crimineel is een fout van de controleur, niet van de (big) data en de software. Daarnaast kan software alleen maar leren als de uitkomsten weer teruggeven worden aan de data waardoor er de volgende keer misschien 98% uit komt. Of 20%. Dat Typhoon aangehouden is had niet te maken met welke big data dan ook, en je data is ook niet erg precies. Die Limo bleek een Outlander PHEV te zijn, de Astra onder de hybrides.

      Een aantal jaren geleden was ik ook met data bezig voor de Rabobank. Er waren daar managers die heel wijselijk knikte en zeiden dat de softe kant van leidinggeven heel belangrijk was. Dat je menselijk wil zijn betekent niet dat je de data maar opzij moet schuiven.

      Natuurlijk is alles wat voortkomt uit big data niet per se waar. Een vriend van me deed een meta onderzoek (onderzoek op onderzoeken) en kwam erachter dat alle onderzoeken waarin de significante cijfers onder percentage X kwam dat de conclusies uit het onderzoek niet klopten.

      Maar nogmaals big data gaat over kansen en voorspellingen wat je daarmee doet is aan de mens en zijn competenties.

      Login om te reageren
    4. Frank Heikens schreef:
      16 juli 2016 om 09:08

      @René Veldwijk
      “Racisme is emotie en software is emotieloos. Niet dus.”
      Software is emotieloos. Je stopt wat gegevens in de software, en er komen resultaten uit. Wat dat is, heb jij van tevoren in de software vastgelegd. Als dat racistisch is, dan heb je dat er zelf ingestopt.

      Big Data gaat onder andere over patronen en doelgroepen. Het hoeft niet racistisch te zijn, het is altijd wel discriminerend en/of generaliserend.

      Stel je hebt iets onderzocht en dit komt er uit:
      “50% van de vrouwen drinkt wekelijks alcohol”
      “80% van de mannen drinkt wekelijks alcohol”

      De conclusie (bv “mannen zijn alcoholisten”) die wordt door jou getrokken, niet door de computer! En als de computer dat wel doet, dan heb jij dat er als regel ingestopt.

      De NSA (en Google en Facebook) geeft Big Data een slechte naam. Zij verzamelen alles, en trekken conclusies die ver buiten de onderzochte gebieden liggen (lage statistische relevantie).

      Een bedrijf heeft meestal als doel om meer te verkopen, een groter marktaandeel te veroveren, of meer winst te maken. Bedrijven die aan Big Data doen, verzamelen alleen gegevens die voor hun doel relevant zijn. Die worden door (hopelijk) de juiste modellen gehaald, en de uitkomsten worden getoetst door mensen met domeinkennis.

      Overigens, een computer zou de rapper Typhoon nooit hebben aangehouden: de nummerbord controle had hem al groen licht gegeven.

      Login om te reageren
    5. Jan van Leeuwen schreef:
      16 juli 2016 om 10:48

      Even een bijzonder zuur voorbeeld.
      Frankrijk verzamelt al heel lang op hele grote schaal data, ondanks dat is Frankrijk al 3 keer door een gruwelijke aanslag getroffen.
      Het schijnt dus toch niet zo goed te funktioneren met “big data”, leg dat de nabestaanden maar eens uit.

      Login om te reageren
    6. KJ schreef:
      16 juli 2016 om 11:03

      Ik sluit mij aan bij met bijdrage 16 juli 2016 11:08. Het enige dat wordt getoetst zijn de eigen criteria.

      Zo zou iemand die meer dan 2 glazen wijn per dag drinkt in sommige politiek correcte kringen al een alcoholist worden genoemd, iemand die tegen de komst van een AZC is, is dan al gauw een racist en een PVV stemmer uiteraard ultra-rechts. Wie de criteria bepaald, bepaald dus ook de conclusies en de uitslag. Dezelfde principes spelen in de journalistiek.

      Daarnaast heb je ook nog een dataverzamelingsprobleem, want op dit moment is het juist verboden om kenmerken als etniciteit te registreren.

      Klaarblijkelijk willen de mensen wel de (politiek correcte) conclusies getrokken door een onafhankelijk medium als een computer, maar niet de feiten.

      Login om te reageren
    7. Henri Koppen schreef:
      16 juli 2016 om 11:12

      Jan wat een vreselijk domme reactie. Hiermee diskwalificeer je jezelf.

      Er zijn aanrijdingen… dus goede auto’s maken functioneert niet.

      Login om te reageren
    8. Jan van Leeuwen schreef:
      16 juli 2016 om 21:45

      Diskwalificeren waarvoor Henri?
      Dat ik tegen een waanzinnige bewakingsstaat ben omdat het helemaal niets brengt?
      Domheid is je ogen sluiten voor geheime diensten die volledig verzaken omdat ze zich vastgebeten hebben in een idee dat de dataverzamelwoede kan helpen dit soort aanslagen te voorkomen.
      Praat eens met gepensioneerde medewerkers van een geheime dienst, dan weet je wat er allemaal niet meer gedaan wordt dat de bevolking wellicht beter beschermt.

      Login om te reageren
    9. Henri Koppen schreef:
      17 juli 2016 om 06:30

      Jan : https://nl.wikipedia.org/wiki/Wet_van_Godwin

      Ik reageer op je analyserend vermogen: Frankrijk verzamelt zoveel data maar is niet eens in staat om een aanslag te voorkomen, dus grote data verzamelingen werken niet.

      Login om te reageren
    10. Jan van Leeuwen schreef:
      17 juli 2016 om 07:38

      Dat dat te kort door de bocht is weet je zelf.
      Wat in Frankrijk gebeurt, toont dat het argument “terreurbestijding” om steeds meer privacygevoelige data te verzamelen niet valide is, die “terreurbestijding” heeft verzaakt.
      De daders van de twee vorige aanslagen waren namelijk bekend vanwege hun extremisme.
      Jij wil of kan dat niet begrijpen.

      Login om te reageren
    Nieuwere reacties »

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Uitgelicht

    Partnerartikel
    AdvertorialInnovatie & Transformatie

    Ontdek de toekomst van IT-support en m...

    Op 16 september 2025 vindt in de Jaarbeurs in Utrecht een gloednieuw event plaats dat volledig is gericht op IT-professionals:...

    Meer persberichten

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Abonneren Magazine
    • Cybersec e-Magazine

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs