Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Awards
    • Computable Awards
    • Nieuws
    • Winnaars
    • Partner worden
    • Inzending indienen
    • Inzendingen
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Magazine
    • Magazine
    • Adverteren in het magazine
  • Nieuwsbrief
Onderstaande bijdrage is van een externe partij. De redactie is niet verantwoordelijk voor de geboden informatie.

Van ai-hallucinaties naar governance: de opdracht voor it

[Beeld: Shutterstock/Summit Art Creations]
17 februari 2026 - 17:035 minuten leestijdOpinieData & AI
Max Veenhof
Max Veenhof

BLOG – Een inauguratiespeech vol verzonnen citaten van Einstein en een miljoenenrapport vol fouten en niet-bestaande bronnen. Het zijn pijnlijke voorbeelden van blind vertrouwen op ai. Ze hallucineert en output moet je altijd controleren, maar de lijn tussen nuttig en nep is soms dun.

Terwijl organisaties ai massaal inzetten, blijft de vraag: wie houdt hier toezicht op? Die rol is de it-afdeling op het lijf geschreven. Maar daar wringt het: een derde van de it-professionals geeft nu al aan een hoge werkdruk te ervaren, blijkt uit ‘Inside ITSM 2026’. Hoe monitor je ai-gebruik in de organisatie als je er eigenlijk geen tijd voor hebt?

Razendsnel

AI verspreid zich razendsnel in organisaties, vaak zonder dat it er weet van heeft. Marketing genereert teksten, sales beoordeelt offertes en hr screent sollicitaties met ai. Afdelingen experimenteren enthousiast, maar niet altijd in afstemming met veiligheidseisen of doelen vanuit it. Zonder toezicht kan dit misgaan, variërend van fouten in teksten tot het sturen en maken van beslissingen op onjuiste informatie. Ai-gebruik vraagt om continue monitoring. Wie controleert of de output klopt, of securityprotocollen zijn gevolgd en of ai-tools toegang hebben tot de juiste systemen?

Het is in veel organisaties nog niet geregeld en dat is een probleem. Want de rol van toezichthouder vereist zowel technische kennis als organisatie-inzicht om te valideren of ai de juiste informatie gebruikt. Neem een chatbot op de helpdesk. Als deze geen toegang heeft tot bepaalde systemen, dan zullen antwoorden bij bijvoorbeeld een niet-werkende applicatie stoppen na ‘probeer opnieuw op te starten.’ Maar met de juiste koppelingen kan diezelfde chatbot al een concrete oplossing bieden op basis van systeemdata.

Vergelijk het met de implementatie van Microsoft Teams. Ook dan zorgt it voor ondersteuning, integraties en de juiste kennis. Met ai is dat nog complexer. Modellen ontwikkelen razendsnel en brengen nieuwe risico’s met zich mee, waardoor er bewaking nodig is van datagebruik en output. Geen eenmalige implementatie dus, maar structureel toezicht. De vraag is daarom niet of it deze rol moet pakken, maar vooral hoe je dit met de huidige werkdruk realiseert.

Waarom uitbesteden en delegeren niet werkt

Daar zit de uitdaging: it-afdelingen komen nauwelijks aan strategisch werk toe. Veertig procent is zo druk met brandjes blussen dat ze weinig tijd overhouden om preventieve maatregelen te nemen. En slechts een kwart voelt zich als afdeling toekomstbestendig. Dat maakt het een kip-ei-situatie: ai bespaart uiteindelijk tijd, maar daar gaan investeringen aan vooraf. Medewerkers trainen, tools implementeren, processen inrichten. En ook daarna vraagt ai-gebruik om blijvende aandacht. Je moet als afdeling immers bijblijven met updates en ontwikkelingen wil je het goed kunnen monitoren.

Er zijn ook andere opties, zoals ai-governance uitbesteden, een andere afdeling verantwoordelijk maken of monitoring in zijn geheel laten. Maar die komen allemaal met nadelen: verlies van regie over bedrijfsdata, afdelingen zonder technische kennis laten monitoren of kwetsbaarheid door helemaal geen structurele aandacht aan ai te schenken. Het is simpel en complex tegelijk: it kan het er in veel gevallen niet zomaar bij doen, maar andere oplossingen schieten tekort. Dat vraagt om fundamenteel andere keuzes in organisaties.

Vijf keuzes voor it in de lead

It kan die keuzes niet alleen maken. Organisaties moeten bereid zijn om te investeren in een strak ai-beleid waar it de leiding in pakt. Daarvoor hoeft het roer niet direct helemaal om. Pak het stap voor stap aan. Wat betekent dat concreet?

  • Herzie prioriteiten
    Waar i tijd vrij te maken voor ai-governance? Denk aan het automatiseren, uitbesteden of schrappen van operationele werkzaamheden.
  • Haal kennis op
    Training en cursussen zijn essentieel, maar schakel als it-afdeling ook met externe experts. Zo leer je niet alleen hoe ai technisch gezien werkt, maar ook hoe je de rest van de organisatie bewust maakt van de risico’s en meeneemt in het controleren van ai-output.
  • Heroverweeg rollen
    Misschien is het aannemen van een ai-expert nodig of is het slim om te schuiven met rollen in het it-team? Wijs bijvoorbeeld een ai officer aan, vergelijkbaar met de security officer. Iemand die fulltime bezig is met ai-governance, in contact staat met andere afdelingen en inhoudelijk en technisch toetst of ai-output klopt.
  • Pak het organisatiebreed aan
    Wees als it-afdeling de verbinder tussen afdelingen. Daarmee kom je tot één ai-beleid zonder dat elke afdeling op zichzelf met ai aan de slag gaat en aan jou de rekening presenteert. Juist met samenwerking haal je de meeste waarde uit ai.
  • Bewijs dat het werkt
    Koppel regelmatig aan de organisatie terug wat it-sturing en bovenal controle oplevert. Dan is ai-governance geen kostenpost, maar een investering.

Hallucinaties stoppen niet

Ai blijft hallucineren, dus toezicht blijft noodzakelijk. Dat maakt de uitdaging voor it-afdelingen niet kleiner. Tijdgebrek is reëel en vraagt om nieuwe keuzes. Wat laten we los om ai-governance goed te doen? Organisaties die hier een antwoord op vinden, positioneren it als bewaker van hun ai-transitie.

En als we de verzonnen Einstein-citaten en onjuiste rapporten mogen geloven, is dat hard nodig.

Max Veenhof, businessconsultant TOPdesk

Meer over

Kunstmatige intelligentie

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Agentic AI in de praktijk

    Hoe autonome AI werkprocessen fundamenteel verandert

    Computable.nl

    Ontdek hoe je de kracht van private cloud kunt ontgrendelen

    De toekomst van serverbeheer. Nieuwe eisen aan prestaties en beveiliging.

    Computable.nl

    Trek AI uit de experimenteerfase

    Een gids over AI als strategisch instrument en op welke manier je écht waarde toevoegt aan je organisatie.

    2 reacties op “Van ai-hallucinaties naar governance: de opdracht voor it”

    1. dino schreef:
      17 februari 2026 om 19:30

      Merkwaardige bewering dat toezicht op AI de it-afdeling “op het lijf geschreven” is.
      Ethiek en businessprocessen zelf zijn geen IT, hoogstens de ondersteuning en automatisering ervan.
      Wat te denken van juridische aansprakelijkheid, bias en discriminatie..
      En waar IT zelf AI inzet is er belangenconflict als je ze zelf de toezichthouder bent.

      Als Business geen verantwoording nemen voor Intelligentie in je afdeling is wel eerlijk 😉 niet sterk. Vergeleken met bijv ServiceNow is TopDesk een eenvoudige ServiceDesk/ITSM tool, juist minder geschikt voor complexe business. Waarom zou een businessconsultant TOPdesk de markt moeten vertellen hoe met AI om te gaan ?

      Login om te reageren
    2. Een oudlid schreef:
      18 februari 2026 om 12:48

      Inderdaad is het vreemd dat de afdeling IT verantwoordelijk wordt voor AI governance als er duidelijke verantwoordelijkheden bij de business liggen als het om datagebruik en output gaat. IT is nu eenmaal niet primair verantwoordelijk voor de inhoudelijke kwaliteit van data of output hoewel ze technisch er wel toegang toe hebben want de kern van governance ligt in de classificatie. En wat betreft slapende honden wakker maken is er dus nogal wat hallucinatie in de digitale archivering als we kijken naar het governance-theater van nietszeggende cijfers zoals opgeslagen petabytes, miljoenen gemigreerde documenten en 99,9% beschikbaarheid.

      Van AI-hallucinaties naar IT-governance wijs ik graag op het classificeren van de informatie naar intrinsieke publieke of juridische waarde en hoe deze decennia te borgen. Want wat betreft het herzien van prioriteiten en rollen heeft niet alles wat bewaard wordt waarde door een verlies aan semantische samenhang. Want vissen in de data lakes zonder een semantisch model levert foutieve rapporten op en citaten die aan de verkeerde mensen worden toegeschreven:

      “Insanity is doing the same thing over and over and expecting different results.”

      Hoewel er is geen bewijs is dat Einstein dit ooit zei zegt dat nog niets over de waarde omdat bron- en inhoudelijke waarde twee verschillende dingen zijn. Er zit een retorische kracht in het citaat met een 10/10 valsheidsscore want of je nu struikelt over een CV of een bonnetje gaat uiteindelijk om bestuurlijke integriteit. Nathalie van Berkel is al afgeserveerd voordat ze op het bordes stond wat veel zegt over een politieke partij waarvan er bestuurlijke veranderingen verwacht worden. Want wat betreft citaten vergroot technologie wel de mogelijkheden maar zonder een veranderde governance vergroot het ook risico als het om de verwachting van wonderen gaat. Puntsgewijs zou ik kijken naar:

      1. Eigenaarschap aangaande bron- en inhoudelijke waarde want LinkedIn is niet de source of truth.
      2. Transparante verantwoordelijkheden want ‘computer says no’ is automatiseren zonder expliciete verantwoordelijkheid.
      3. Expliciete risicomodellen want ‘ChatGPT can make mistakes’ maar draagt geen aansprakelijkheid als het om beslissingen gaat.

      Van interne procedurele toetsing naar externe publieke en journalistieke toetsing is de AI-hype net als de cloud omdat technologie wederom gepresenteerd wordt als oplossing voor organisatorische problemen. Cloud evangelisten beloofden ons lagere kosten, snellere innovatie en oneindige schaal maar uiteindelijk kregen we meer risico’s en hogere compliance kosten. AI beloofd een besluitvorming die slimmer wordt, een grotere productiviteit en minder menselijke fouten maar tot op heden creëert het niet de waarheid, vervangt het niet de menselijke afwegingen en lost het geen integriteitsproblemen op.

      Login om te reageren

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Awards-inzendingen

    Pijl naar rechts icoon

    Ecare Software

    Gestandaardiseerde huisartscommunicatie vanuit PUUR.: sneller, veiliger en zorginstelling-overstijgend (PUUR en Ecare)
    Pijl naar rechts icoon

    Ecare Software

    PUUR. integreert met SUP: minder administratie, meer tijd voor zorg (PUUR. SUP en Ecare)
    Pijl naar rechts icoon

    Emixa B.V

    Van 3 weken naar 3 dagen: hoe Kornelis de doorlooptijd met 85% verbetert (Emixa)
    Pijl naar rechts icoon

    ESC Holding

    Digitalisering van analoge bouwtekeningen en registraties infrastructuursystemen bij Brabant Water (Brabant Water en ESC Holding)
    Pijl naar rechts icoon

    Esri Nederland

    Provincies Noord- en Zuid-Holland krijgen grip op ruimtelijke opgaven met ArcGIS (provincie Noord-Holland, provincie Zuid-Holland, ArcGIS en ArcGISEsri)
    Alle inzendingen
    Pijl naar rechts icoon

    Populaire berichten

    Meer artikelen

    Meer lezen

    Data & AI

    Slackbot krijgt ruim dertig nieuwe functies

    Cloud & Infrastructuur

    Kort: Twee datablunders Anthropic in één week, vernieuwde HP LaserJet‑lijn (en meer)

    Carrière

    Oracle jaagt personeel stuipen op lijf met ontslaggolf 

    Data & AI

    Kort: Full Join sorteert voor op post-quantumbeveiliging, Sodexo halveert foodwaste dankzij data (en meer)

    Data & AI

    Spoelstra Spreekt: We zijn er bijna

    Data & AI

    Kabinet steekt geen geld in Rotterdamse ai-gigafabriek

    ...

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Computable Awards
    • Magazine
    • Ontvang Computable e-Magazine
    • Cybersec e-Magazine
    • Topics
    • Phishing
    • Ransomware
    • NEN 7510

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2026 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs