Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Awards
    • Computable Awards
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Magazine
  • Nieuwsbrief
Onderstaande bijdrage is van een externe partij. De redactie is niet verantwoordelijk voor de geboden informatie.

Schaduw-ai en het risico voor organisaties

04 november 2025 - 16:425 minuten leestijdOpinieInnovatie & Transformatie
Siegfried Huijgen
Siegfried Huijgen

BLOG – Nu de hype rond de plotselinge en schijnbaar baanbrekende opkomst van DeepSeek is afgenomen, blijven organisaties achter met vragen over het gebruik van generatieve ai (gen-ai) op de werkvloer. De belangrijkste kwestie is of Chinese chatbot een veiligheidsrisico vormt of dat het simpelweg de risico’s van het toenemende gebruik van ai-chatbots en gebruiksvriendelijke grote taalmodellen (llm’s) benadrukt. Het antwoord ligt ergens in het midden. 

Hoewel DeepSeek wellicht zijn eigen problemen heeft met privacy, security en censuur, staat deze hier zeker niet alleen in. Alle gen-ai-modellen en llm’s brengen een risico met zich mee, vooral als er geen volledig bewustzijn is van hoe vaak, waar en waarom ze worden gebruikt. Omdat veel van deze tools niets meer vereisen dan een webbrowser, is het moeilijk te begrijpen welke soorten informatie er worden verzonden en ontvangen tussen werknemers en een verschillend aantal applicaties. 

Als de snelle opkomst van DeepSeek ons iets kan leren, dan is het wel de snelheid waarmee krachtige applicaties de markt kunnen bereiken en een brede acceptatie kunnen verwerven. Als de controles niet snel genoeg zijn om bij te blijven, dan neemt de kans toe om blootgesteld te worden aan een wereld van risico’s die in de schaduw schuilen. 

Besef

Schaduw-ai is het gebruik van ai-tools buiten de controle en machtigingen van de organisatie, vaak zonder het besef dat dit gebeurt. Hoewel sommige werknemers hun gebruik van deze applicaties opzettelijk maskeren, gebruiken veel anderen ze openlijk en te goeder trouw, vaak zonder zich bewust te zijn van de risico’s. Soms zijn ze überhaupt niet bewust dat ze met gen-ai bezig zijn. 

Vraag de gemiddelde werknemer om de ai-applicaties te noemen die ze elke dag gebruiken en ze zullen misschien enkel ChatGPT noemen. Toch zijn er veel meer in algemeen gebruik, van Microsofts Copilot en Googles Gemini tot Claude, Grammarly, Otter en bepaalde tools in Canva en GitHub. Deze applicaties bieden veel voordelen en helpen werknemers sneller en efficiënter te werken. Toch is het cruciaal dat er bewustzijn binnen het bedrijf is over wat de werknemers delen met deze applicaties. Ook is het zaak dat degenen die deze toepassingen gebruiken, weten hoe ze werken, hoe ze met data omgaan en de vele potentiële risico’s die ze voor de organisatie vormen. 

Vizier

Het is niet gek dat DeepSeek een doelwit werd voor cybercriminelen, zodra het bekend werd in de wereld. Elke applicatie die data opslaat en analyseert, staat midden in het vizier van dreigingsactoren. Tenzij er grip is op het gebruik van dit soort tools, wordt er waarschijnlijk pas te laat ontdekt hoeveel van de algemene data van eigen data afstamt. 

Schaduw-ai leidt tot meerdere risico’s: 

  • Beveiligingslekken
    Wanneer informatie van een bedrijf wordt gedeeld met een onbevoegde derde partij, is niet bekend hoe deze wordt opgeslagen, verwerkt of geanalyseerd. Alleen al aan een llm vragen om een e-mail naar een klant op te stellen of een call samenvatten, kan resulteren in het blootleggen van gevoelige data van het bedrijf of de klanten. 
  • Data-integriteit
    Ai maakt fouten. Wanneer werknemers ChatGPT en andere tools klakkeloos aannemen, lopen ze het risico authenticiteit te verlenen aan onjuiste informatie, wat de service van het bedrijf beïnvloedt en de reputatie schaadt. 
  • Compliance
    Naast dat data risico lopen op blootstelling, kan het delen van informatie met schaduw-ai-applicaties, non-disclosure agreements, de Algemene Verordening Gegevensbescherming (AVG) en tal van andere wetgeving rondom dataprivacy in gevaar brengen. 
  • Interne bedreigingen
    Gebruikers die code, tekst of afbeeldingen kopiëren en plakken van ongeautoriseerde tools, kunnen kwetsbaarheden, malware en meer in de systemen en netwerken van de organisatie introduceren. 
  • Vertrouwen en betrouwbaarheid
    Het gebruik van schaduw-ai-services kan in strijd zijn met het openbare beleid van het bedrijf met betrekking tot dergelijke tools. Dit kan problemen veroorzaken met vertrouwen en authenticiteit als dit onder de aandacht komt van klanten, prospects of zakenpartners. 
Wondermiddel

Er is geen wondermiddel voor het beveiligen van het gebruik van schaduw-ai. Elke effectieve cyberverdediging moet bestaan uit meerdere lagen en mensen, processen en technologie combineren. Dit betekent het implementeren van mensgerichte toegangs- en databeheermaatregelen, naast een robuust intern beleid en ai-governance-boards voor toezicht en begeleiding. 

De eerste stap is inzicht krijgen in het schaduw-ai-landschap. Met gespecialiseerde dlp-tools wordt het gebruik van meer dan zeshonder gen-ai-sites per gebruiker, groep of afdeling gevolgd, toegang hebben tot clouddata geïdentificeerd, en e-mail en agenda’s, en het app-gebruik in context met gebruikersrisico gemonitord. Een uitgebreide oplossing stelt het bedrijf in staat om acceptabele beleidsregels voor gen-ai-gebruik af te dwingen, het uploaden of plakken van gevoelige gegevens te blokkeren, gevoelige termen uit ai-prompts te halen en metadata en screenshots vast te leggen voor en na het gebruik van gen-ai-applicaties. 

Deze controles moeten worden aangevuld met robuuste en voortdurende training van medewerkers. Iedereen in de organisatie moet de potentiële risico’s van schaduw-aibegrijpen, evenals de goedgekeurde processen voor het aanvragen en gebruiken van nieuwe technologieën. Zo geven organisaties hun medewerkers wat ze nodig hebben om hun werk te doen, zonder gevoelige data aan de schaduw te verliezen. 

Siegfried Huijgen, cybersecurityexpert Benelux Proofpoint 

Meer over

AICybersecuritySchaduw-ai

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Innovatie in uitvoering: industrieel bouwen

    Wees voorbereid op de bouwplaats van de toekomst.

    Computable.nl

    Agentic AI in actie

    De stappen van automatiseren naar écht autonoom werken. Welke toepassingen zijn succesvol?

    Computable.nl

    Slimme connectiviteit: de toekomst van bouwen

    Hoe stoom jij jouw organisatie in de bouw en installatie sector klaar voor de digitale toekomst?

    2 reacties op “Schaduw-ai en het risico voor organisaties”

    1. dino schreef:
      5 november 2025 om 11:56

      “een wereld van risico’s die in de schaduw schuilen. ”
      nou, de FUD toon is weer gezet.
      Het kan nog erger “vaak zonder het besef dat dit gebeurt.”
      eeh, zonder besef in een wereld van risico’s in de schaduw..

      Het kan verkeren.
      Waar eerst nog it als commodity zou gelden, loert nu overal het gevaar.
      Alles moest uitbesteed en ineens “is het zaak dat degenen die deze toepassingen gebruiken, weten hoe ze werken, hoe ze met data omgaan en de vele potentiële risico’s die ze voor de organisatie vormen.”
      Das best ambitieus na bijv bericht vandaag : https://tweakers.net/nieuws/241124/mijn-uwv-omgeving-onbereikbaar-door-vergeten-certificaatvernieuwing.html

      Door welk vizier moet er nou gekeken worden en welke schaduwen achtervolgd ?
      Wat is de schaduw waarvan ?
      Ik lees iets over meerdere lagen en natuurlijk weer een proprietary oplossing van proofpoint, agentic AI governance.
      Moet we nu een bedrijf vertrouwen dat het continu over vage schaduwen heeft ?

      Login om te reageren
    2. Een oudlid schreef:
      5 november 2025 om 13:28

      Elke technologische vooruitgang brengt risico’s met zich mee. Denk aan e-mail, cloudopslag, BYOD. Allemaal ooit gezien als risicovol maar nu onmisbaar in de bedrijfsprocessen door een voortschrijdend digitalisatie. Dus is de vraag of auteur aan de klassieke kant van risico benadering zit of aan de alternatieve. Want een digitale volwassenheid betekent risico’s systematisch leren beheersen omdat de organisaties die dat niet doen blijven hangen in restrictief beleid. En restricties frustreren gebruikers want die schaduw-AI ontstaat uit frustratie en ambitie.

      De geruststellende afsluiter van het artikel klinkt als een belofte maar is in feite een verkoopvoorwaarde die gebaseerd is op de conditionele aanname dat bespioneren van de gebruiker via DLP-tools gerechtvaardigd is. Als dat het fundament is dan staat niet alleen de deur naar de OR wagenwijd open maar ook die naar een fundamenteel debat over vertrouwen, autonomie en digitale volwassenheid.

      Login om te reageren

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Uitgelicht

    Partnerartikel
    Innovatie & Transformatie

    Barco introduceert nieuw vergadersyste...

    Videoconferencing is volledig ingeburgerd in de vergaderzaal. Met ClickShare heeft Barco een oplossing om gemakkelijk en draadloos videovergaderingen te starten...

    Meer persberichten

    Meer lezen

    Innovatie & Transformatie

    Overheid investeert fors in digitale transformatie

    Bluesky X
    Data & AI

    Kort: Mobiel netwerk VodafoneZiggo vernieuwd, dislikes voor Bluesky (en meer)

    veiligheid ai onderwijs
    Onderwijs

    Tech als kans, veiligheid als voorwaarde in onderwijs

    Nexperia
    Innovatie & Transformatie

    Escalatie intern conflict bij Nexperia

    ai saas ondersteboven
    Innovatie & Transformatie

    Kort: Saas op de kop, twee derde bedrijven zegt ai-potentieel niet waar te maken (en meer)

    ai neuromorphic compputing brein
    Data & AI

    Kort: Neuromorphic computing bespaart heel veel ai-energie, ChipNL opent centrum (en meer)

    ...

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Ontvang Computable e-Magazine
    • Cybersec e-Magazine
    • Topics
    • Phishing
    • Ransomware
    • NEN 7510

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs