Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Awards
    • Computable Awards
    • Nieuws
    • Winnaars
    • Partner worden
    • Inzending indienen
    • Inzendingen
    • De jury en experts
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Magazine
    • Magazine
    • Adverteren in het magazine
  • Nieuwsbrief

Dit zijn de gevaren van ai (6) voor mens en maat­schap­pij

nummer zes
15 mei 2026 - 17:007 minuten leestijdAchtergrondData & AI
Pim van der Beek
Pim van der Beek

Ai is aan een enorme opmars bezig, op korte termijn is het misschien een hype, maar op de lange termijn heeft ai waarschijnlijk meer invloed op de economie, ons werk en de maatschappij dan we nu kunnen overzien. Ai-aanbieders buitelen over elkaar heen met juichverhalen over ai. Maar wat zijn de gevaren? In het boek De grote verandering – Hoe machines slimmer worden en wat dat voor jou betekent, benoemt futurist en ai-spreker Robbert van Empel naast allerlei kansen en mogelijkheden ook zes gevaren van ai die op de loer liggen. We zetten ze samengevat op een rij.

#1 De ai-wapenwedloop leidt tot risico’s

De wedstrijd om de slimste te zijn met ai en toepassingen te ontwikkelen die op vrijwel alle vlakken slimmer zijn dan mensen speelt zich af tussen de machtsblokken China en de VS. De Amerikaanse aanpak is door keiharde concurrentie tussen een aantal grote spelers enigszins chaotisch, maar qua regeling krijgen die spelers veel ruimte omdat de Amerikaanse overheid ‘als de dood’ is om de voorsprong op China te verliezen, beschrijft Van Empel. Waar eerder nog een bredere discussie was over ethiek en het doel van ai en de gevaren voor mensen, sluit de overheid nu contracten voor ai-toepassingen voor het leger, spionage en nieuwe wapens.

In China loopt de ai-ontwikkeling via een strak door de staat gestuurd groeiprogramma. Ze dwingen de beste ai-onderzoekers, en eigenaren van grote datasets en supercomputers tot samenwerking waarbij nieuwe ai-datacenters voor hun energietoevoer waarschijnlijk aan kerncentrales worden gekoppeld. Die dynamiek van een machtsstrijd kan leiden tot het nemen van steeds grotere risico’s en het overslaan van veiligheidsstappen om de concurrentie voor te blijven. Van Empel: ‘De overtuiging dat snelheid en innovatie belangrijker zijn dan het voorkomen van kleine foutjes, in Sillicon Valley-motto: ‘move fast and break things’, krijgt een nieuwe angstaanjagende betekenis als het ‘ding’ dat je kapot kunt maken de toekomst van de mensheid is.’

#2 Het gevaar van ai-kolonialisme

Van Empel spreekt over een onzichtbare overheersing door ai. Een gevaar dat volgens hem subtieler is dan de ai-wapenwedloop. Hij noemt dat ai-kolonialisme. ‘We denken vaak dat technologie neutraal is. Dat een rekenmachine geen mening heeft. Maar ai is geen rekenmachine. Ai is getraind op data en die data bevatten een wereldbeeld.’

Hij wijst op de cultuur en de normen die in de ai-oplossingen terecht komen. In het geval van de VS is deze ai ‘doordrenkt’ met typische waarden van de Amerikaanse Westkust en Sillicon Valley, zoals hyper-kapitalisme, liberalisme, efficiëntie en winst.

De Chinese ai bevat de waarden van de Communistische Partij die sociale stabiliteit boven individuele vrijheid stelt. Het model verkiest harmonie boven kritiek en de belangen van de groep gaan altijd boven die van het individu. ‘Het risico is dat we eindigen in een wereld waarin er nog maar twee smaken zijn: De Amerikaanse of de Chinese’, schrijft Van Empel die wijst op het belang van open ai-modellen die de eigen waarden en culturen van de makers én gebruikers weerspiegelen. ‘Als we niet oppassen worden we digitaal gekoloniseerd zonder dat er ooit een soldaat aan te pas komt.’

#3 Strenge regelgeving zet Europa buitenspel in ai-innovatie

Europa kiest in de mondiale ai‑race niet voor schaal of snelheid, maar voor regulering als strategisch antwoord, duidt Van Empel. De EU AI‑Act werkt volgens een risico‑piramide, duidt hij. Bovenaan staan ‘verboden toepassingen’ zoals social scoring, onbewuste manipulatie, realtime biometrie in de openbare ruimte en emotieherkenning op school of werk. In de volgende laag komen ‘hoog‑risico’‑systemen aanbod. Het gaat om ai-toepassingen voor onder meer rechtshandhaving, migratie en onderwijs, die aan strenge eisen moeten voldoen. Toepassingen met ‘beperkt risico’, zoals chatbots vormen de derde laag, aanbevelingssystemen en spamfilters vallen in de vierde ‘minimaal risico’-categorie.  

Met deze structuur wil Brussel ethische grenzen afdwingen en wereldwijd de standaard zetten voor verantwoorde ai, duidt de auteur. Dat is het zogeheten Brussels effect: Europese regels worden zo invloedrijk dat ze internationaal worden overgenomen. De gedachte daarachter is dat Europa niet hoeft te winnen op rekenkracht, maar op normstelling — door de spelregels van de ai‑race te herschrijven.

Critici waarschuwen dat deze aanpak de Europese ai-innovatie kan afremmen. Terwijl Amerikaanse en Chinese bedrijven op volle snelheid doorgaan, dreigt Europa te verzanden in bureaucratie. Dat kan leiden tot technologische achterstand, afhankelijkheid van buitenlandse ai‑systemen en tragere toegang voor Europese burgers tot nieuwe ai‑toepassingen. Kortom: bescherming en normstelling botsen met het risico dat Europa zichzelf buitenspel zet in de innovaties rondom ai, aldus de ai-expert.

#4 Slechte mensen misbruiken ai-superkrachten

‘Een van de meest directe, tastbare gevaren van ai is dat het een ongelooflijk krachtig gereedschap is in handen van mensen met slechte bedoelingen’, schrijft Van Empel die wijst op de destructieve gevolgen van de ‘krachtversterker’ die ai is. Hij wijst bijvoorbeeld op ai-modellen die de kennis vergaren van alle beschikbare wetenschappelijke informatie rondom bijvoorbeeld biologische wapens of het ontwerp van een gevaarlijk virus.

Ai verlaagt volgens hem de drempel voor het creëren van een pandemie. Konden eerst alleen supermachten zoiets creëren, nu ligt die weg ook open voor een paar ‘slimme’ studenten in een garage die via ai-toegang hebben tot allerlei informatie en het systeem bevragen op tips om zo’n virus te verspreiden.

‘Ook is ai een geducht wapen in de informatieoorlog’, schrijft de auteur. Nu wordt ai al ingezet voor nep-informatie en propaganda, dat kan met de opkomst van deepfake videos, nepprofielen op sociale media en aanvallen op de feitelijke waarheid alleen maar toenemen, stelt hij.

Ook de opkomst van door ai aangestuurde wapens die zelfstandig, dus zonder de tussenkomt van mensen beslissen over leven en dood, leiden tot zorgen. En dan is er ook de angst voor ai die cyberoorlogsvoering en kwaadwillende hackers 24×7 kan ondersteunen.

#5 Controleverlies als de computer niet meer luistert

Eén van de meest existentiële en fundamentele gevaren waar de makers van ai van wakker liggen is het risico op controleverlies, stelt Van Empel. ‘Wat gebeurt er als we erin slagen een ai te maken die zo onvoorstelbaar slim is (superintelligent) dat het zijn eigen doelen begint na te streven en zich niet langer laar sturen door de menselijke makers?’, vraagt hij zich af. Hij schetst een aantal apocalyptische scenario’s uit onder mee het AI 2027-rapport en wijst erop dat ai echt gevaarlijk wordt als het de mens als belemmering gaat zien voor zijn eigen voorbestaan.

#6 Het verlies van de vrijheid door ai als controle-instrument

‘Naast de apocalyptische scenario’s van een op hol geslagen superintelligentie, is er een ander, meer sluipend en misschien wel waarschijnlijker gevaar. Een gevaar dat niet onze levens bedreigt maar wel onze vrijheid en autonomie. Ai is namelijk het perfecte, meest efficiënte instrument voor surveillance en sociale controle dat ooit is uitgevonden’, schrijft Van Empel. Hij wijst op autoritaire staten zoals China waar die controle al dagelijkse realiteit is doordat camera’s met geavanceerde technologie voor gezichtsherkenning burgers volgen en beoordelen en bij overtredingen beperkingen opleggen, zo ontstaat een ‘digitale gevangenis met onzichtbare tralies.’

Hij schrijft dat in Westerse landen inlichtingendiensten onder het mom van ‘veiligheid’ hun boekje te buiten gaan door op zoek in een databerg van telefoongesprekken, emails en internetverkeer de privacy van burgers te schenden. ‘De grote verandering dwingt ons om een fundamenteel en dringend debat te voeren over de balans tussen technologie, veiligheid en vrijheid.’

De Grote Verandering – Hoe machines slimmer worden en wat dat voor jou betekent
Auteur: Robbert van Empel
ISBN: 9789493480148
Uitgeverij: Van Duuren Management

Meer over

AI

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Geïntegreerde ICT in de zorg

    Hoe samenhang in IT bijdraagt aan continuïteit en veiligheid

    Computable.nl

    Agentic AI in de praktijk

    Hoe autonome AI werkprocessen fundamenteel verandert

    Computable.nl

    Ontdek hoe je de kracht van private cloud kunt ontgrendelen

    De toekomst van serverbeheer. Nieuwe eisen aan prestaties en beveiliging.

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Awards-inzendingen

    Pijl naar rechts icoon

    Check Point

    Nadia van Beelen (Sales Associate, Check Point Technologies)
    Pijl naar rechts icoon

    Cegeka

    Ammar Alkhatib (Cyber Security Advisor, Cegeka)
    Pijl naar rechts icoon

    ForceFusion

    Amber Quist (Cyber security specialist, ForceFusion)
    Pijl naar rechts icoon

    Howden Nederland

    Pieter-Jan Lommerse (cio, Howden Nederland)
    Pijl naar rechts icoon

    Rabobank

    Corence Klop (ciso, Rabobank)
    Alle inzendingen
    Pijl naar rechts icoon

    Populaire berichten

    Meer artikelen

    Meer lezen

    Data & AI

    Geen ai zonder keurmerk: waarom voor­uit­lo­pen op ISO 42001 slim is

    Carrière

    Nieuwe Box 3-stelsel jaagt techtalent het land uit

    cover boek De Grote Verandering
    Data & AI

    Van Empel ontrafelt impact van ai – en zet lezer aan het werk

    Cloud & Infrastructuur

    Kort: Datacenter NorthC heeft tijdelijke stroom­voor­zie­ning, SiSo verkocht aan EyeTi (en meer)

    Data & AI

    Ai neemt ons leven niet over (maar verandert het wel ingrijpend)

    Carrière

    Bird verplaatst meeste werk van Nederland naar VS

    ...

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Computable Awards
    • Magazine
    • Ontvang Computable e-Magazine
    • Cybersec e-Magazine
    • Topics
    • Phishing
    • Ransomware
    • NEN 7510

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2026 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs