Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Awards
    • Overzicht
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Magazine
  • Nieuwsbrief
Onderstaande bijdrage is van een externe partij. De redactie is niet verantwoordelijk voor de geboden informatie.

Term ‘neutrale ai’ is misleidend

Man met laptop, de term AI in beeld
[Beeld: Shutterstock]
02 september 2025 - 17:074 minuten leestijdOpinieData & AIOpenAI
Marcel van Kooten
Marcel van Kooten

BLOG – De term ‘verantwoorde’ of ‘neutrale ai’ krijgt gewicht in toekomstvisies waarin ai belangrijker en zelfs autonoom wordt. Neutrale ai zou onbevooroordeeld zijn, niet discriminerend, en ethisch verantwoord. Ai is een instrument dat door mensen wordt gemaakt. Het antwoord op de vraag of ai neutraal is, is pas te verkrijgen door te kijken naar de mens die er achter zit. Nog beter is het om de term neutraliteit exclusief voor die laatste te reserveren.

Volgens de historicus Jerome Bourdon is het vergelijken van ai met een menselijk wezen waarmee is te spreken een vorm van animisme. Het zijn sjamanen die beweren dat ze op geestelijk vlak communiceren met een voorwerp zoals een steen of een boom, en in dit geval een computer, om in de behoeften van zichzelf of hun gemeenschap te voorzien.

Sam Altman, ceo van OpenAI, vergeleek praten met respectievelijk Chatgtp-3, 4 en 5 converseren met respectievelijk een scholier, een student en een expert. Gebruikers kunnen gedesillusioneerd geraken omdat ze zich ‘bedrogen’ voelen door een ai. Elon Musk zei ooit dat ai als een vriend en mentor kon zijn. Volgens Bourdon is ai gewoon een machine die we gebruiken en niet iets waarmee we praten, en die net als een bedlamp afhankelijk is van door de mens verzorgde stroomvoorziening. Hij pleit voor een andere naam: niet ‘kunstmatige intelligentie’ maar ‘algoritme-apparaat’ of ‘bureaucratisch assistent.‘

Goede beslissingen

Het begrip ‘bestuurlijke informatievoorziening’ duidt op het zorgen voor de juiste informatie zodat goede beslissingen zijn te nemen. In die context adresseert ai het probleem dat de managementwetenschap kent als bounded rationality: we beschikken nooit over alle informatie om volledig rationeel te beslissen. Gegeven de context is het beter te spreken in termen van rationaliteit dan van neutraliteit van ai.

Ai kan ongeacht doel of agenda rationeel zijn. Als de Amerikaanse regering data verwijdert over klimaat en vaccins en statistieken over werkloosheid verandert, is dat niet rationeel voor het klimaat, de volksgezondheid of economie maar wel voor de machtspositie van bepaalde actoren. Het is dus belangrijk transparant maken in het licht van welk doel of rationaliteit ai en data worden gebruikt. En een slag dieper: of deze data een weerspiegeling zijn van bijvoorbeeld feiten volgens criteria van wetenschappelijke discipline of epistemologie of bijvoorbeeld zijn gebaseerd op internet (Wisdom of the Crowd).

Vervolgens is de vraag wat ai doet. Onder de vlag van explainable ai onderzoekt het Amerikaanse Anthropic (wat mensachtig betekent) de interne werking van ai ‘om deze te kunnen aanpassen’. Dit betreft de locatie van pakketjes van informatie die ai gebruikt maar ook het pad van analyse van een vraagstelling via het opsporen van informatie naar het selecteren en prioriteren daarvan, inclusief het inspelen op de geïnterpreteerde persoonlijkheid van de vraagsteller. Het onderzoek naar de ‘businesslogica’ van ai, ook voor Chain-of-Thought-ai, staat nog in de kinderschoenen, en welbeschouwd kunnen we wezenlijke besluiten niet door een machine laten ondersteunen zolang we niet weten hoe ze werkt. De Europese AI Act stelt documentatie van hoogrisico-ai vanaf 2027 verplicht.

Morele en juridische aansprakelijkheid tenslotte, beogen sturing op gewenst gedrag. Overdracht aan ai is een gevaarlijke illusie omdat voor deze sturing ook humaniteit nodig is: solidariteit door lotgenootschap met de menselijke soort als basis voor moreel handelen ondersteund door intentie, begrip van consequenties en keuzevrijheid. Voor een machine principieel een onmogelijke stap. Ook zou het overdragen van aansprakelijkheid aan een instrument voor de maker/opdrachtgever ervan een carte blanche betekenen en daar wordt de maatschappij niet beter van.

Rationaliteit

Samenvattend: het verbinden van de term neutraal aan ai leidt af van wat erachter zit: de mens. Ai kan al of niet rationeel werken. Deze rationaliteit is en blijft een afgeleide van de rationaliteit van de maker/gebruiker. En die zal  vervolgens nooit volledig neutraal zijn (mede door bounded rationality) maar gelukkig wel moreel en juridisch aansprakelijk. Vanuit dit maatschappelijk oogpunt dient de focus in de discussie over neutraliteit dus te liggen op de maker/gebruiker.

Dat ai hoe dan ook ondergeschikt blijft aan de mens zal ook daaruit blijken dat zelfs sjamanen geneigd zullen zijn om uitsluitend de eigen boom of steen te raadplegen en te vertrouwen en niet die van een ander. Het vertrek van Elon Musk bij OpenAI en daarna volgende conflict is in dat licht bezien veelzeggend: het gaat om de mens.

Marcel van Kooten, management consultant sourcing and it governance Highberg

Meer over

agentic-ai-transformatieKunstmatige intelligentie

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Beveiliging van AI in de praktijk

    AI is hot, maar de praktijk binnen grote organisaties blijkt weerbarstig. Stop met brandjes blussen; zo schaal en beveilig je met succes.

    Computable.nl

    Bouw de AI-organisatie niet op los zand

    Wat is de afweging tussen zelf bouwen of het benutten van cloud?

    Computable.nl

    De weg van dataverzameling naar impact

    Iedere organisatie heeft data, maar niet iedereen weet hoe je het goed gebruikt. Hoe zet je waardevolle informatie om in actie?

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Uitgelicht

    Partnerartikel
    AdvertorialSecurity & Awareness

    Cybersec Netherlands 2025 – Programma...

    Keynotes over cloud, AI en geopolitiek: het programma van Cybersec Netherlands raakt de kern van digitale weerbaarheid

    Meer persberichten

    Meer lezen

    veilig security
    ActueelGovernance & Privacy

    Kort: Liever veilig dan goedkoop, Trump boos op Big Tech, onkraakbare quantumversleuteling (en meer)

    OpinieData & AI

    Retailers die in prijsstrategie ai negeren, lopen omzetkansen mis

    magnetron ai energiegebruik
    ActueelData & AI

    Kort: Ai-queries kosten toch wel veel energie, Privacy First waarschuwt (en meer)

    lek muur dam
    ActueelSecurity & Awareness

    Kort: Claude onthoudt langer, lekken groter, de omgekeerde ai-generatiekloof  (en meer)

    ai ontslag banen
    ActueelData & AI

    Kort: China hackt ook Nederland, Moskou beheert Node.js-hulpprogramma, Nvidia groeit hard (en meer)

    Kompas
    AchtergrondCarrière

    Hrm op een kruispunt: ai moet strategisch kompas worden, geen bijrijder

    ...

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Abonneren Magazine
    • Cybersec e-Magazine
    • Topics
    • – Phishing
    • – Ransomware

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs