BLOG – Een inauguratiespeech vol verzonnen citaten van Einstein en een miljoenenrapport vol fouten en niet-bestaande bronnen. Het zijn pijnlijke voorbeelden van blind vertrouwen op ai. Ze hallucineert en output moet je altijd controleren, maar de lijn tussen nuttig en nep is soms dun.
Terwijl organisaties ai massaal inzetten, blijft de vraag: wie houdt hier toezicht op? Die rol is de it-afdeling op het lijf geschreven. Maar daar wringt het: een derde van de it-professionals geeft nu al aan een hoge werkdruk te ervaren, blijkt uit ‘Inside ITSM 2026’. Hoe monitor je ai-gebruik in de organisatie als je er eigenlijk geen tijd voor hebt?
Razendsnel
AI verspreid zich razendsnel in organisaties, vaak zonder dat it er weet van heeft. Marketing genereert teksten, sales beoordeelt offertes en hr screent sollicitaties met ai. Afdelingen experimenteren enthousiast, maar niet altijd in afstemming met veiligheidseisen of doelen vanuit it. Zonder toezicht kan dit misgaan, variërend van fouten in teksten tot het sturen en maken van beslissingen op onjuiste informatie. Ai-gebruik vraagt om continue monitoring. Wie controleert of de output klopt, of securityprotocollen zijn gevolgd en of ai-tools toegang hebben tot de juiste systemen?
Het is in veel organisaties nog niet geregeld en dat is een probleem. Want de rol van toezichthouder vereist zowel technische kennis als organisatie-inzicht om te valideren of ai de juiste informatie gebruikt. Neem een chatbot op de helpdesk. Als deze geen toegang heeft tot bepaalde systemen, dan zullen antwoorden bij bijvoorbeeld een niet-werkende applicatie stoppen na ‘probeer opnieuw op te starten.’ Maar met de juiste koppelingen kan diezelfde chatbot al een concrete oplossing bieden op basis van systeemdata.
Vergelijk het met de implementatie van Microsoft Teams. Ook dan zorgt it voor ondersteuning, integraties en de juiste kennis. Met ai is dat nog complexer. Modellen ontwikkelen razendsnel en brengen nieuwe risico’s met zich mee, waardoor er bewaking nodig is van datagebruik en output. Geen eenmalige implementatie dus, maar structureel toezicht. De vraag is daarom niet of it deze rol moet pakken, maar vooral hoe je dit met de huidige werkdruk realiseert.
Waarom uitbesteden en delegeren niet werkt
Daar zit de uitdaging: it-afdelingen komen nauwelijks aan strategisch werk toe. Veertig procent is zo druk met brandjes blussen dat ze weinig tijd overhouden om preventieve maatregelen te nemen. En slechts een kwart voelt zich als afdeling toekomstbestendig. Dat maakt het een kip-ei-situatie: ai bespaart uiteindelijk tijd, maar daar gaan investeringen aan vooraf. Medewerkers trainen, tools implementeren, processen inrichten. En ook daarna vraagt ai-gebruik om blijvende aandacht. Je moet als afdeling immers bijblijven met updates en ontwikkelingen wil je het goed kunnen monitoren.
Er zijn ook andere opties, zoals ai-governance uitbesteden, een andere afdeling verantwoordelijk maken of monitoring in zijn geheel laten. Maar die komen allemaal met nadelen: verlies van regie over bedrijfsdata, afdelingen zonder technische kennis laten monitoren of kwetsbaarheid door helemaal geen structurele aandacht aan ai te schenken. Het is simpel en complex tegelijk: it kan het er in veel gevallen niet zomaar bij doen, maar andere oplossingen schieten tekort. Dat vraagt om fundamenteel andere keuzes in organisaties.
Vijf keuzes voor it in de lead
It kan die keuzes niet alleen maken. Organisaties moeten bereid zijn om te investeren in een strak ai-beleid waar it de leiding in pakt. Daarvoor hoeft het roer niet direct helemaal om. Pak het stap voor stap aan. Wat betekent dat concreet?
- Herzie prioriteiten
Waar i tijd vrij te maken voor ai-governance? Denk aan het automatiseren, uitbesteden of schrappen van operationele werkzaamheden.
- Haal kennis op
Training en cursussen zijn essentieel, maar schakel als it-afdeling ook met externe experts. Zo leer je niet alleen hoe ai technisch gezien werkt, maar ook hoe je de rest van de organisatie bewust maakt van de risico’s en meeneemt in het controleren van ai-output.
- Heroverweeg rollen
Misschien is het aannemen van een ai-expert nodig of is het slim om te schuiven met rollen in het it-team? Wijs bijvoorbeeld een ai officer aan, vergelijkbaar met de security officer. Iemand die fulltime bezig is met ai-governance, in contact staat met andere afdelingen en inhoudelijk en technisch toetst of ai-output klopt.
- Pak het organisatiebreed aan
Wees als it-afdeling de verbinder tussen afdelingen. Daarmee kom je tot één ai-beleid zonder dat elke afdeling op zichzelf met ai aan de slag gaat en aan jou de rekening presenteert. Juist met samenwerking haal je de meeste waarde uit ai.
- Bewijs dat het werkt
Koppel regelmatig aan de organisatie terug wat it-sturing en bovenal controle oplevert. Dan is ai-governance geen kostenpost, maar een investering.
Hallucinaties stoppen niet
Ai blijft hallucineren, dus toezicht blijft noodzakelijk. Dat maakt de uitdaging voor it-afdelingen niet kleiner. Tijdgebrek is reëel en vraagt om nieuwe keuzes. Wat laten we los om ai-governance goed te doen? Organisaties die hier een antwoord op vinden, positioneren it als bewaker van hun ai-transitie.
En als we de verzonnen Einstein-citaten en onjuiste rapporten mogen geloven, is dat hard nodig.
Max Veenhof, businessconsultant TOPdesk

Merkwaardige bewering dat toezicht op AI de it-afdeling “op het lijf geschreven” is.
Ethiek en businessprocessen zelf zijn geen IT, hoogstens de ondersteuning en automatisering ervan.
Wat te denken van juridische aansprakelijkheid, bias en discriminatie..
En waar IT zelf AI inzet is er belangenconflict als je ze zelf de toezichthouder bent.
Als Business geen verantwoording nemen voor Intelligentie in je afdeling is wel eerlijk 😉 niet sterk. Vergeleken met bijv ServiceNow is TopDesk een eenvoudige ServiceDesk/ITSM tool, juist minder geschikt voor complexe business. Waarom zou een businessconsultant TOPdesk de markt moeten vertellen hoe met AI om te gaan ?
Inderdaad is het vreemd dat de afdeling IT verantwoordelijk wordt voor AI governance als er duidelijke verantwoordelijkheden bij de business liggen als het om datagebruik en output gaat. IT is nu eenmaal niet primair verantwoordelijk voor de inhoudelijke kwaliteit van data of output hoewel ze technisch er wel toegang toe hebben want de kern van governance ligt in de classificatie. En wat betreft slapende honden wakker maken is er dus nogal wat hallucinatie in de digitale archivering als we kijken naar het governance-theater van nietszeggende cijfers zoals opgeslagen petabytes, miljoenen gemigreerde documenten en 99,9% beschikbaarheid.
Van AI-hallucinaties naar IT-governance wijs ik graag op het classificeren van de informatie naar intrinsieke publieke of juridische waarde en hoe deze decennia te borgen. Want wat betreft het herzien van prioriteiten en rollen heeft niet alles wat bewaard wordt waarde door een verlies aan semantische samenhang. Want vissen in de data lakes zonder een semantisch model levert foutieve rapporten op en citaten die aan de verkeerde mensen worden toegeschreven:
“Insanity is doing the same thing over and over and expecting different results.”
Hoewel er is geen bewijs is dat Einstein dit ooit zei zegt dat nog niets over de waarde omdat bron- en inhoudelijke waarde twee verschillende dingen zijn. Er zit een retorische kracht in het citaat met een 10/10 valsheidsscore want of je nu struikelt over een CV of een bonnetje gaat uiteindelijk om bestuurlijke integriteit. Nathalie van Berkel is al afgeserveerd voordat ze op het bordes stond wat veel zegt over een politieke partij waarvan er bestuurlijke veranderingen verwacht worden. Want wat betreft citaten vergroot technologie wel de mogelijkheden maar zonder een veranderde governance vergroot het ook risico als het om de verwachting van wonderen gaat. Puntsgewijs zou ik kijken naar:
1. Eigenaarschap aangaande bron- en inhoudelijke waarde want LinkedIn is niet de source of truth.
2. Transparante verantwoordelijkheden want ‘computer says no’ is automatiseren zonder expliciete verantwoordelijkheid.
3. Expliciete risicomodellen want ‘ChatGPT can make mistakes’ maar draagt geen aansprakelijkheid als het om beslissingen gaat.
Van interne procedurele toetsing naar externe publieke en journalistieke toetsing is de AI-hype net als de cloud omdat technologie wederom gepresenteerd wordt als oplossing voor organisatorische problemen. Cloud evangelisten beloofden ons lagere kosten, snellere innovatie en oneindige schaal maar uiteindelijk kregen we meer risico’s en hogere compliance kosten. AI beloofd een besluitvorming die slimmer wordt, een grotere productiviteit en minder menselijke fouten maar tot op heden creëert het niet de waarheid, vervangt het niet de menselijke afwegingen en lost het geen integriteitsproblemen op.