Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Computable Awards
    • Overzicht
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Nieuwsbrief
[Afbeelding: Summit Art Creations/Shutterstock.com]

TNO en NCSC waarschuwen voor effectieve cyberaanvallen via LLM’s

24 mei 2024 - 13:31ActueelSecurity & AwarenessNCSCTNO
Diederik Toet
Diederik Toet

Large Language Models (LLM’s) of grote taalmodellen vormen een toenemende dreiging voor de cyberveiligheid. Criminelen misbruiken de modellen, die oorspronkelijk zijn ontwikkeld voor natuurlijke taalverwerking en communicatie, voor geavanceerde en moeilijk te detecteren cyberaanvallen. Daarvoor waarschuwen onderzoekers van TNO en het Nationaal Cyber Security Centrum (NCSC).

Het NCSC liet TNO uitzoeken welke gevolgen LLM’s hebben op het cyberdreigingslandschap, hoe je deze gevolgen meetbaar maakt en de komende drie tot vijf jaar in de gaten kunt houden. Hiervoor gebruikten de onderzoekers eerdere studies en Mitre Att&ck, een kennisbank met informatie over technieken en tactieken van cybercriminelen. De kennisbank is ingedeeld naar veertien tactieken met elk meerdere technieken, waarvan sommige zich lenen voor de toepassing van LLM’s.

Een Large Language Model is een geavanceerd ai-systeem dat is getraind op enorme hoeveelheden tekstdata om menselijke taal te begrijpen, genereren en interpreteren.

De onderzoekers identificeren drie technieken die cybercriminelen bij uitstek kunnen versterken met behulp van zulke taalmodellen. De eerste techniek is het injecteren van gemanipuleerde berichten op de server, zodat de gebruiker op het verkeerde been wordt gezet. Met LLM’s kunnen de criminelen zulke berichten veel sneller en efficiënter maken. De tweede techniek is het op kwetsbaarheden scannen van online-applicaties. Ook dit proces kan met een LLM versnellen.

Spearphishing

Maar het zijn vooral phishingaanvallen waarover de onderzoekers zich zorgen maken. Criminelen kunnen de Large Language Models gemakkelijk misbruiken om in korte tijd zeer persoonlijke, realistische en vertrouwenwekkende e-mails te genereren. Dit zogeheten spearphishing vergroot niet alleen de effectiviteit van de aanvallen, maar ook de schaal en snelheid waarmee ze worden uitgevoerd. Bovendien wordt het voor cybercriminelen gemakkelijker om met ai stemmen realistisch na te bootsen en daarmee mensen te misleiden.

De inzet van LLM’s vormt de komende tijd een grote uitdaging voor de cybersecurity, concluderen de onderzoekers. Dit zou zich uiten in zes trends in het gebruik van grote taalmodellen die aanvallers in de nabije toekomst zouden kunnen benutten:

  • Imitatie/personalisatie voor betere phishing en social engineering op schaal.
  • Genereren van (kwaadaardige) code en tools door mensen zonder technische kennis.
  • Gebruik van informatie opgeslagen in een LLM voor de beïnvloeding van besluitvorming.
  • Geautomatiseerde uitbuiting van kwetsbaarheden.
  • Het vinden van kwetsbaarheden in bijvoorbeeld code, logbestanden en configuratiebestanden.
  • Misleidende of schadelijke input verstrekken aan andere, minder geavanceerde LLM’s.

Het rapport ‘The future of cyber attacks with Large Language Models’ is hier te vinden.

Meer over

AICybercrimeCybersecuritySecuritysecuritytrends

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    GenAI: Veiligheidsrisico of wapen tegen dreiging?

    Wat AI betekent voor jouw securityaanpak? Alles over de risico’s en strategieën om GenAI verantwoord in te zetten.

    Computable.nl

    Bouw de AI-organisatie niet op los zand

    Wat is de afweging tussen zelf bouwen of het benutten van cloud?

    Computable.nl

    Slimme connectiviteit: de toekomst van bouwen

    Hoe stoom jij jouw organisatie in de bouw en installatie sector klaar voor de digitale toekomst?

    Meer lezen

    politieagent spreekt in meldkamer in portofoon
    ActueelOverheid

    Politie deelt 19 tactieken in strijd tegen cybercrime

    ActueelSecurity & Awareness

    Vijf landen bron van leeuwendeel cybercrime

    OpinieData & AI

    Ai-oplossingen vormen risico voor cybersecurity

    cybersecurity
    ActueelSecurity & Awareness

    De zeven geboden voor meer cyberveiligheid

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Uitgelicht

    Partnerartikel
    AdvertorialInnovatie & Transformatie

    Computable Insights

    Een ai-agent die klantvragen afhandelt. Dat is een van de nieuwste troeven van softwareproducent Salesforce, dat daarmee meesurft op de...

    Meer persberichten

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Abonneren Magazine
    • Cybersec e-Magazine

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs