Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Computable Awards
    • Overzicht
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Nieuwsbrief
Biometrie

Zo (h)erken je cyberdreigingen van ai

05 april 2024 - 14:174 minuten leestijdOpinieData & AIMcKinsey
Bas van Dun
Bas van Dun

BLOG – Artificial intelligence (ai) is een geweldig hulpmiddel in tal van situaties. Het toegenomen vermogen om data te analyseren en toe te passen is ook voor duistere doeleinden aan te wenden. Wees er als organisatie van bewust dat ai ook tegen je gebruikt kan worden. Erken en hérken de cyberdreigingen van ai en de risico’s die hieraan verbonden zijn.

Uit onderzoek van McKinsey uit 2023 blijkt dat veertig procent van de organisaties wereldwijd wil investeren in de inzet van ai. Verder blijkt dat vier van de vijf respondenten ai soms inzetten en iets meer dan twintig procent zelfs regelmatig. Het gebruik van generative ai (gen-ai) lijkt op alle niveaus binnen organisaties te zijn ‘geland’, van de werkvloer tot de bestuurskamer. Naast de vele voordelen die oplossingen als ChatGPT, Gemini, Picsart en Dall-E bieden, kleven er ook nadelen aan. Zo vermelden deze tools vaak niet wanneer er op de teksten en afbeeldingen die gegenereerd worden copyrights rusten. Ook ben je niet zeker van de waarheidsgetrouwheid van de tekst; het is immers gecreëerd uit een bulk aan data waarvan de kwaliteit niet is gecontroleerd.

Misleidende gegevens

Er zijn zelfs gevallen bekend waarbij kwaadwillenden bewust de trainingsset van een ai-model voeden met misleidende gegevens. Het doel is om het model onjuiste patronen te laten leren, waardoor de nauwkeurigheid en betrouwbaarheid onder druk komen te staan. Dit noemen we in jargon data poisoning. In dit kader is het ook goed om te wijzen op de risico’s van model theft, het stelen of overnemen van een ai-model. Cyberaanvallers proberen hierbij de parameters of de structuur van een ai-model te stelen met query attacks. Door de antwoorden te analyseren, kunnen zij een replica van het model maken. Zo kunnen zij bijvoorbeeld inzicht krijgen in het intellectuele eigendom van organisaties.

Tegelijkertijd lijken organisaties zich (nog) niet te realiseren dat platforms als ChatGPT publieke omgevingen zijn. Data die je als input geeft, kan in ook weer als output gebruikt worden. Samsung verbood het gebruik van ChatGPT toen bleek dat medewerkers (delen van) broncode ingevoerd hadden, waarschijnlijk met het verzoek om deze te bewerken. Zij beseften niet dat de broncode op deze manier in handen zou komen van ChatGPT-maker OpenAI. Ook banken als Bank of America, Goldman Sachs, Deutsche Bank, Citigroup en Wells Fargo & Co verbieden ChatGPT op de werkvloer. Het risico bestaat dat bijvoorbeeld bedrijfsgeheimen of vertrouwelijke informatie in verkeerde handen vallen.

Kinderziektes

Dit soort incidenten kun je nog scharen onder de noemer kinderziektes. Je ziet ook dat organisaties beleid formuleren en best practices delen om dit soort incidenten te voorkomen. De gevolgen worden ingrijpender wanneer organisaties slachtoffer worden van cyberaanvallen, die tot stand komen met ai, zoals deepfakes. Deze deepfakes zijn een vorm van social engineering en vormen een steeds grotere bedreiging. We hebben het dan over een toepassing van ai die gebruikmaakt van technieken zoals machine learning en neurale netwerken om realistische, maar vervalste audiovisuele content te creëren. Allereerst worden fragmenten van de doelstem verzameld, via filmpjes of podcasts die publiekelijk toegankelijk zijn. Vervolgens worden deze audiogegevens geanalyseerd, zodat kenmerken zoals intonatie en accent kunnen worden nagebootst. En vervolgens kan met AI nieuwe spraak worden gegenereerd die klinkt als de doelstem. Ditzelfde proces kan worden gevolgd om nepvideo’s te maken.

Dat geld verdween uiteraard in verkeerde handen

Zo leiden deepfakes tot een krachtig aanvalsmiddel. Zo krachtig dat een medewerker van een multinational ervan overtuigd was dat hij met zijn cfo in een videogesprek zat. Stem en uiterlijk waren niet van echt te onderscheiden en de medewerker werd zo aangezet om een transactie te doen ter waarde van 24 miljoen euro. Dat geld verdween uiteraard in verkeerde handen. Dit zet je als organisatie wel aan het denken: zet je filmpjes of podcasts met executives online of word je nu een stuk voorzichtiger? En waar we dachten dat medewerkers stappen hadden gezet in hun securitybewustzijn, moeten we hen blijven helpen om geavanceerde social engineering-aanvallen te herkennen en de risico’s op een incident te verkleinen.

Kaf

Om de nieuwe, geavanceerde aanvallen tijdig te onderscheppen en te voorkomen, gebruikt de cybersecuritysector zelf ook ai. Ai helpt bijvoorbeeld om het kaf van het koren te scheiden, zodat experts in bijvoorbeeld het Security Operations Center veel gerichter naar de grootste bedreigingen op zoek kunnen gaan en sneller kunnen reageren. Zo zou je kunnen denken dat er een balans is: beide zijden van het spectrum gebruiken ai en zo is er sprake van een status quo. Maar daarbij gaan we eraan voorbij dat verdedigers alles moeten zien tegen te houden, terwijl de aanvallers aan één treffer genoeg hebben. Er is dus geen evenwicht en daarom moeten we nog waakzamer zijn en de gevaren van ai in relatie tot cyberaanvallen op juiste waarde schatten.

Bas van Dun is threat intelligence analyst bij Tesorion

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Bouw de AI-organisatie niet op los zand

    Wat is de afweging tussen zelf bouwen of het benutten van cloud?

    Computable.nl

    De weg van dataverzameling naar impact

    Iedere organisatie heeft data, maar niet iedereen weet hoe je het goed gebruikt. Hoe zet je waardevolle informatie om in actie?

    Computable.nl

    In detail: succesvolle AI-implementaties

    Het implementeren van kunstmatige intelligentie (AI) biedt enorme kansen, maar roept ook vragen op. Deze paper beschrijft hoe je als (middel)grote organisatie klein kunt starten met AI en gaandeweg kunnen opschalen.

    Meer lezen

    ActueelCarrière

    Atos presenteert strategisch en transformatieplan voor 2028

    ActueelCloud & Infrastructuur

    Optics11 haalt miljoenen op voor beveiliging zeekabels

    AchtergrondData & AI

    ILT heeft nieuw taxitoezichtsysteem op de rit

    ActueelCloud & Infrastructuur

    Kort: WBSO populair bij ict-bedrijven, 6 cloudtrends Gartner, EU-alternatief voor CVE-database VS

    ActueelData & AI

    Lleverage ontvangt drie miljoen voor ‘vibe automation’

    stopbord met tekst: ransomware
    AchtergrondData & AI

    De kille cyberafpersing van LockBit in 6 stappen uitgelegd

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Abonneren Magazine
    • Cybersec e-Magazine

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs