Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Computable Awards
    • Overzicht
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Nieuwsbrief
ALT misdaad

AIVD deelt vijf stappen voor veilige ai

19 juni 2023 - 09:334 minuten leestijdActueelInnovatie & TransformatieAIVDTNO
Pim van der Beek
Pim van der Beek

De Algemene Inlichtingen- en Veiligheidsdienst (AIVD) deelt in een online publicatie vijf stappen voor het beschermen van ai-systemen. Die principes moeten bedrijven en organisaties die ai-toepassingen ontwikkelen, verdedigen tegen cybercriminelen.

In de brochure ‘Ai-systemen: ontwikkel ze veilig’ deelt de AIVD een aantal manieren waarop ai-systemen kwetsbaar zijn. Het Nationaal Bureau voor Verbindingsbeveiliging (NBV), onderdeel van de AIVD, onderscheidt vijf soorten aanvallen.

Poisoning-aanvallen 
De aanvaller probeert aanpassingen te maken in de data, het algoritme of het machine learning-model zodat het ai-systeem wordt ‘vergiftigd’ en daardoor niet meer werkt zoals gewenst, zoals een scanner voor de controle van goederen die door manipulatie wapens doorlaat.  

Input (evasion)-aanvallen 
Aanvallen met specifieke input, bijvoorbeeld ruis over een foto. Zo wordt geprobeerd een ai-systeem om de tuin te leiden zodat het systeem niet of onjuist werkt.

Backdoor-aanvallen 
Door een achterdeurtje in een ai-model te bouwen, kan een externe partij een extra pad toevoegen waarmee de uiteindelijke beslissing van het model kan worden bepaald.

Model reverse engineering & inversion-aanvallen 
De aanvaller probeert erachter te komen hoe het ai-model werkt om de dataset te reconstrueren die gebruikt is om het model te trainen.

Inference-aanvallen
Gericht op het achterhalen of een specifieke set gegevens is gebruikt als trainingsdata voor een model.

Vijf stappen

De dienst ziet dat ai-toepassingen zich zo snel ontwikkelen dat het nu al zaak is om ai-systemen veilig te ontwikkelen. ‘Anders loop je het gevaar dat jouw ai-systeem niet meer werkt zoals het zou moeten, met alle gevolgen van dien.’

Op basis van eigen kennis en ervaringen en informatie van samenwerkingspartners zoals TNO en het Britse National Cyber Security Center zijn vijf principes opgesteld die helpen bij het nadenken over het veilig ontwikkelen en gebruiken van ai-modellen.

Houd de datakwaliteit op orde
‘De kwaliteit van data is hoe dan ook van groot belang als je een ai-model of -systeem ontwikkelt’, schrijft de dienst. De hamvraag: hoe gestructureerd is die data? Is bijvoorbeeld bekend waar de gegevens vandaan komen, kan de kwaliteit gecontroleerd worden? De dienst wijst op manieren om de data te bewerken, waardoor het lastiger is voor een aanvaller om iets aan trainingsdata of input te manipuleren. Zo moeten poisoning- en input-aanvallen voorkomen worden.

Zorg voor validatie van data
‘
Bij extern verkregen data heb je vaak geen invloed op de data. Een data-provider kan besluiten andere labels toe te voegen, waardoor jouw model minder nauwkeurig wordt. Daarom is het belangrijk om dit continu te monitoren en waar mogelijk proactief te controleren’, aldus de AIVD.

Houd rekening met supply chain security
Zodra een kant-en-klaar model wordt gedownload of door anderen wordt ingericht, is de kans op een backdoor reëel, stelt de dienst. ‘Het tegengaan van een backdoor is lastig als je het model niet zelf kunt doorgronden. Als je het model zelf kunt bouwen of beoordelen, wordt de introductie van een backdoor lastiger.’

Maak je model robuust tegen aanvallen
De robuustheid van het ai-model is de mate waarin het model goed kan functioneren bij afwijkende input, veranderingen in de data of pogingen tot misbruik, stellen de experts. ‘Alle voorgaande principes maken het ai-model al meer robuust. Dit principe voegt daar aan toe: zorg dat je het model traint tegen mogelijke aanvallen.’ In de publicatie deelt de AIVD een methode om trainingsdata te beschermen tegen aanvallen.

Zorg dat je model controleerbaar (auditable) is
Als bij het bouwen en trainen van een model vooraf rekening wordt gehouden met controleerbaarheid, dan zal het achteraf minder een black box zijn, stellen de samenstellers. ‘Die ontwikkeling wordt ook wel ‘explainable ai’ genoemd. Een ai-model geeft voorspellingen, maar vaak is het onduidelijk hoe deze voorspelling tot stand is gekomen. Zelfs als het model goed ‘werkt’, kun je moeilijk uitleggen waarom. Herkent jouw beeldherkenningsmodel echt de paarden op afbeeldingen, of wordt het model om de tuin geleid door een onopvallend watermerk?’

Tor slot deelt de AIVD dat de vijf principes niet één-op-één gekoppeld zijn aan de vijf aanvallen. ‘Ze zijn een aanvulling op algemene best practices voor het ontwikkelen van software en het beheersen van netwerken en systemen.’

Meer over

Kunstmatige intelligentieNetwerken

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Slimme connectiviteit: de toekomst van bouwen

    Hoe stoom jij jouw organisatie in de bouw en installatie sector klaar voor de digitale toekomst?

    Computable.nl

    Design Sprints: 4 dagen van idee naar prototype

    Hoe zet je in vier dagen tijd een gevalideerd prototype neer met Design Sprints?

    Computable.nl

    Dit is de weg naar informatietransformatie

    In een wereld waar data en informatie centraal staan, moeten organisaties zich aanpassen aan de digitale toekomst. Informatietransformatie is de sleutel tot het versterken van beveiliging en het bevorderen van efficiëntie.

    Meer lezen

    Quantum
    ActueelCloud & Infrastructuur

    Nieuwe Cisco-netwerkchip brengt quantum-internet dichterbij

    AchtergrondCarrière

    Ict-overnamemarkt trapt 2025 goed af, maar onzekerheid troef

    OpinieCloud & Infrastructuur

    Voorbereiding & verhuizing: zo implementeer je de hybride cloud

    ActueelCloud & Infrastructuur

    Europese Rekenkamer kraakt EU-strategie voor chipsector

    ActueelData & AI

    EU investeert bijna 2 miljard in digitale innovatie

    ActueelInnovatie & Transformatie

    Iwell ontvangt bijna 30 miljoen groeigeld

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Abonneren Magazine
    • Cybersec e-Magazine

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs