Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Computable Awards
    • Overzicht
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Nieuwsbrief

Dit is waarom ai niet veilig is

07 juni 2024 - 14:244 minuten leestijdOpinieCarrière
Martijn Nielen
Martijn Nielen

BLOG – Het zakelijk gebruik van artificial intelligence (ai) is het afgelopen jaar omhoog geschoten. Bedrijven gebruiken ai bijvoorbeeld voor interactie met klanten of baseren beslissingen op ai-systemen. Slim? Niet volgens het Amerikaanse National Institute for Standards and Technology (NIST). Dat waarschuwt voor ‘adversarial ai’.

Het NIST windt er geen doekjes om. Aanvallers kunnen ai-systemen eenvoudig misleiden of zelfs ‘vergiftigen’. ‘En er bestaat nog geen waterdichte methode om ai hiertegen te beschermen’, stelt het NIST. Volgens het instituut moeten ai-ontwikkelaars en -gebruikers op hun hoede zijn voor wie iets anders beweert.

Vier typen aanvallen

In de publicatie ‘Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations’ schetsen computerwetenschappers vier typen aanvallen op ai-systemen.

  • Evasion attacks

Evasion attacks vinden plaats nadat een ai-systeem is uitgerold en operationeel is. Bij een ‘ontwijkingsaanval’ proberen aanvallers de input naar het systeem zodanig te wijzigen dat het ai-systeem wordt misleid en een verkeerde uitvoer produceert. Een klassiek voorbeeld is het manipuleren van visuele herkenningssystemen. Bij een onderzoek werden kleine stickers op stopborden geplakt. Deze stickers maakten dat zelfrijdende auto’s een verkeersbord niet meer zagen als een stopbord maar als een bord met een snelheidsbeperking. Mensen merkten bijna niks van deze stickers, maar de auto’s werden hierdoor wel verkeerd aangestuurd.

  • Abuse attacks

Abuse attacks richten zich op het misbruiken van de functionaliteiten van een ai-systeem door het invoeren van misleidende informatie uit legitieme maar gecompromitteerde bronnen. Dit kan leiden tot het onbedoeld verspreiden van onjuiste of schadelijke informatie. Een bekend voorbeeld is het manipuleren van YouTube’s aanbevelingssysteem. Door het systeem te ‘voeden’ met strategisch ontworpen content en engagement zoals views, likes en reacties, konden bepaalde actoren het algoritme manipuleren om dergelijke content vaker en aan meer gebruikers voor te stellen. Dit leidde tot een versterking van bepaalde ideologieën of desinformatie.

  • Privacy attacks

Met privacy attacks proberen aanvallers persoonlijke informatie uit ai-systemen te halen, of data te verzamelen waarop het ai-systeem is getraind. Dit is gevaarlijk omdat het niet alleen de vertrouwelijkheid van informatie in gevaar brengt, maar ook kan laten zien hoe de ai werkt. Daardoor zijn andere aanvallen weer makkelijker op te zetten. Een privacy attack kan bijvoorbeeld gericht zijn tegen ai-systemen voor gezichtsherkenning. Met toegang tot data en voldoende kennis van het model is het mogelijk om gezichten te reconstrueren die zijn gebruikt voor de training van het model. Deze reconstructies kunnen genoeg informatie bevatten om de privacy van de personen in kwestie te schenden. Zo kunnen ze iets zeggen over de gezondheidssituatie van een persoon, of over de aanwezigheid op een bepaalde locatie.

  • Poisoning attacks

Poisoning attacks vinden plaats tijdens de training van een ai-systeem, waarbij de aanvallers opzettelijk verkeerde data in de trainingset invoegen. Dit kan ertoe leiden dat het systeem onjuiste patronen aanleert en verkeerde beslissingen neemt. Een klassiek voorbeeld van een dergelijke aanval is gericht op ai-systemen voor spamfiltering. Spammers kunnen opzettelijk e-mails opstellen die kenmerken bevatten van legitieme e-mails maar toch spam zijn. Door deze e-mails in grote hoeveelheden te verzenden, hopen ze dat sommige van deze e-mails als legitiem worden gemarkeerd en daardoor in de trainingsdata van het spamfilter terechtkomen. Bedrijven kunnen hierop anticiperen door spamfilters niet te trainen met inkomende e-mails, maar juist met uitgaande e-mails die door de eigen medewerkers zijn opgesteld. Dit plaatst de training van het ai-systeem binnen een gecontroleerde context, waarbij de inhoud door de medewerkers zelf wordt gecreëerd.

Mitigerende maatregelen

Hoewel er volgens het NIST dus geen ‘silver bullet’ is tegen de risico’s van adversarial ai, zijn er wel mitigerende maatregelen die we kunnen treffen. Effectieve verdediging begint met een grondige monitoring van het netwerkverkeer en de endpoints. Ongebruikelijk gedrag dat op een aanval kan duiden, wordt hiermee snel geïdentificeerd. Daarnaast is het cruciaal om systemen en data te beschermen met geavanceerde encryptie, waardoor de kans op misbruik door ongeautoriseerde partijen wordt verminderd. Tot slot speelt continue educatie over de nieuwste cyberdreigingen en verdedigingstechnieken een sleutelrol in het voorbereiden van organisaties op de uitdagingen van morgen.

Martijn Nielen is senior sales engineer bij WatchGuard Technologies

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Meer lezen

    OpinieSecurity & Awareness

    Kan ai einde maken aan tekort aan vaardigheden in soc?

    Jacob Spoelstra blazen vermoeiend
    OpinieCarrière

    Spoelstra Spreekt: Geen vak geleerd

    Digitale overheid
    ActueelOverheid

    Nederland scoort in EU bovengemiddeld bij digitale overheidsdiensten

    Vrouwe Justitia
    ActueelCarrière

    Collectieve rechtszaak tegen Workday voor leeftijdsdiscriminatie door ai

    ActueelCarrière

    Kort: Ernst-Jan Stigter directeur Sopra Steria Nederland, nepmails namens de NCSC (en meer)

    ActueelCarrière

    Kort: Asus vangt bot bij rechter om thuiswerken, 145,5 miljoen EU-subsidie voor cyberbeveiliging (en meer)

    Eén reactie op “Dit is waarom ai niet veilig is”

    1. Een oudlid schreef:
      10 juni 2024 om 22:17

      Dus AI als autonome beslisser is misschien niet zo’n goed idee doordat het adaptieve vermogen van algoritmen om misleiding te herkennen niet zo goed is als de industrie ons wil doen laten geloven? Klinkt als eerdere hypes in bedot.com economie waardoor de laatsten uiteindelijk de eersten zijn omdat ze leren van de fouten die een ander gemaakt heeft:

      “The trough of disillusionment happens when the original excitement wears off and early adopters report performance issues and low ROI.” – Gartner.

      Login om te reageren

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Uitgelicht

    Partnerartikel
    AdvertorialInnovatie & Transformatie

    Computable Insights

    Een ai-agent die klantvragen afhandelt. Dat is een van de nieuwste troeven van softwareproducent Salesforce, dat daarmee meesurft op de...

    Meer persberichten

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Abonneren Magazine
    • Cybersec e-Magazine

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs