Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Awards
    • Computable Awards
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Magazine
  • Nieuwsbrief

Zo (h)erken je cyberdreigingen van ai

Biometrie
05 april 2024 - 14:174 minuten leestijdOpinieData & AIMcKinsey
Bas van Dun
Bas van Dun

BLOG – Artificial intelligence (ai) is een geweldig hulpmiddel in tal van situaties. Het toegenomen vermogen om data te analyseren en toe te passen is ook voor duistere doeleinden aan te wenden. Wees er als organisatie van bewust dat ai ook tegen je gebruikt kan worden. Erken en hérken de cyberdreigingen van ai en de risico’s die hieraan verbonden zijn.

Uit onderzoek van McKinsey uit 2023 blijkt dat veertig procent van de organisaties wereldwijd wil investeren in de inzet van ai. Verder blijkt dat vier van de vijf respondenten ai soms inzetten en iets meer dan twintig procent zelfs regelmatig. Het gebruik van generative ai (gen-ai) lijkt op alle niveaus binnen organisaties te zijn ‘geland’, van de werkvloer tot de bestuurskamer. Naast de vele voordelen die oplossingen als ChatGPT, Gemini, Picsart en Dall-E bieden, kleven er ook nadelen aan. Zo vermelden deze tools vaak niet wanneer er op de teksten en afbeeldingen die gegenereerd worden copyrights rusten. Ook ben je niet zeker van de waarheidsgetrouwheid van de tekst; het is immers gecreëerd uit een bulk aan data waarvan de kwaliteit niet is gecontroleerd.

Misleidende gegevens

Er zijn zelfs gevallen bekend waarbij kwaadwillenden bewust de trainingsset van een ai-model voeden met misleidende gegevens. Het doel is om het model onjuiste patronen te laten leren, waardoor de nauwkeurigheid en betrouwbaarheid onder druk komen te staan. Dit noemen we in jargon data poisoning. In dit kader is het ook goed om te wijzen op de risico’s van model theft, het stelen of overnemen van een ai-model. Cyberaanvallers proberen hierbij de parameters of de structuur van een ai-model te stelen met query attacks. Door de antwoorden te analyseren, kunnen zij een replica van het model maken. Zo kunnen zij bijvoorbeeld inzicht krijgen in het intellectuele eigendom van organisaties.

Tegelijkertijd lijken organisaties zich (nog) niet te realiseren dat platforms als ChatGPT publieke omgevingen zijn. Data die je als input geeft, kan in ook weer als output gebruikt worden. Samsung verbood het gebruik van ChatGPT toen bleek dat medewerkers (delen van) broncode ingevoerd hadden, waarschijnlijk met het verzoek om deze te bewerken. Zij beseften niet dat de broncode op deze manier in handen zou komen van ChatGPT-maker OpenAI. Ook banken als Bank of America, Goldman Sachs, Deutsche Bank, Citigroup en Wells Fargo & Co verbieden ChatGPT op de werkvloer. Het risico bestaat dat bijvoorbeeld bedrijfsgeheimen of vertrouwelijke informatie in verkeerde handen vallen.

Kinderziektes

Dit soort incidenten kun je nog scharen onder de noemer kinderziektes. Je ziet ook dat organisaties beleid formuleren en best practices delen om dit soort incidenten te voorkomen. De gevolgen worden ingrijpender wanneer organisaties slachtoffer worden van cyberaanvallen, die tot stand komen met ai, zoals deepfakes. Deze deepfakes zijn een vorm van social engineering en vormen een steeds grotere bedreiging. We hebben het dan over een toepassing van ai die gebruikmaakt van technieken zoals machine learning en neurale netwerken om realistische, maar vervalste audiovisuele content te creëren. Allereerst worden fragmenten van de doelstem verzameld, via filmpjes of podcasts die publiekelijk toegankelijk zijn. Vervolgens worden deze audiogegevens geanalyseerd, zodat kenmerken zoals intonatie en accent kunnen worden nagebootst. En vervolgens kan met AI nieuwe spraak worden gegenereerd die klinkt als de doelstem. Ditzelfde proces kan worden gevolgd om nepvideo’s te maken.

Dat geld verdween uiteraard in verkeerde handen

Zo leiden deepfakes tot een krachtig aanvalsmiddel. Zo krachtig dat een medewerker van een multinational ervan overtuigd was dat hij met zijn cfo in een videogesprek zat. Stem en uiterlijk waren niet van echt te onderscheiden en de medewerker werd zo aangezet om een transactie te doen ter waarde van 24 miljoen euro. Dat geld verdween uiteraard in verkeerde handen. Dit zet je als organisatie wel aan het denken: zet je filmpjes of podcasts met executives online of word je nu een stuk voorzichtiger? En waar we dachten dat medewerkers stappen hadden gezet in hun securitybewustzijn, moeten we hen blijven helpen om geavanceerde social engineering-aanvallen te herkennen en de risico’s op een incident te verkleinen.

Kaf

Om de nieuwe, geavanceerde aanvallen tijdig te onderscheppen en te voorkomen, gebruikt de cybersecuritysector zelf ook ai. Ai helpt bijvoorbeeld om het kaf van het koren te scheiden, zodat experts in bijvoorbeeld het Security Operations Center veel gerichter naar de grootste bedreigingen op zoek kunnen gaan en sneller kunnen reageren. Zo zou je kunnen denken dat er een balans is: beide zijden van het spectrum gebruiken ai en zo is er sprake van een status quo. Maar daarbij gaan we eraan voorbij dat verdedigers alles moeten zien tegen te houden, terwijl de aanvallers aan één treffer genoeg hebben. Er is dus geen evenwicht en daarom moeten we nog waakzamer zijn en de gevaren van ai in relatie tot cyberaanvallen op juiste waarde schatten.

Bas van Dun is threat intelligence analyst bij Tesorion

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Ontdek hoe je de kracht van private cloud kunt ontgrendelen

    De toekomst van serverbeheer. Nieuwe eisen aan prestaties en beveiliging.

    Computable.nl

    Trek AI uit de experimenteerfase

    Een gids over AI als strategisch instrument en op welke manier je écht waarde toevoegt aan je organisatie.

    Computable.nl

    Slim verbonden en veilig georganiseerd

    Waarom connectiviteit en security onlosmakelijk verbonden zijn.

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Uitgelicht

    Partnerartikel
    Security & Awareness

    NIS2: Europese richtlijn maakt cyberse...

    De Europese NIS2-richtlijn zet cybersecurity definitief op de strategische agenda. Organisaties in vitale sectoren krijgen te maken met strengere eisen...

    Meer persberichten

    Meer lezen

    Data & AI

    Nvidia stopt Synopsys van Aart de Geus twee miljard toe

    Logistiek

    De impact van ai op supply chain management

    ai logistiek warehousing
    Data & AI

    Kort: Productiever en méér personeel dankzij ai, Prosus haalt investeerder maar Amsterdam (en meer)

    Data & AI

    IFS leidt dans om industriële ai: ‘De volgende revolutie is robotica’

    zorg ai
    Data & AI

    Kort: Zorg-ict beweegt van capex naar opex, Nederlandse ai-startups halen geld op, Franse llmaas (en meer)

    cloud zonder geheugen
    Cloud & Infrastructuur

    Microsoft: Cloud Act geldt ook voor Europese cloudproviders

    ...

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Ontvang Computable e-Magazine
    • Cybersec e-Magazine
    • Topics
    • Phishing
    • Ransomware
    • NEN 7510

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs