Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Computable Awards
    • Overzicht
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Nieuwsbrief

Dit zijn de veiligheidsrisico’s van ChatGPT

03 april 2023 - 08:305 minuten leestijdAchtergrondInnovatie & TransformatieCheck PointEuropolMicrosoftSentinelOne
Alfred Monterie
Alfred Monterie

Technologie is voor goed en voor kwaad in te zetten. Met generatieve artificiële intelligentie (ai) en grote taalmodellen zoals ChatGPT is dat niet anders.

Volgens beveiliger SentinelOne blijft cybersecurity een kat-en-muisspel tussen aanvallers en verdedigers. Beiden gebruiken ai om hun operaties te automatiseren. De aanvallers zoeken nieuwe manieren om verdedigingslinies te omzeilen, terwijl de verdedigers hen een stap voor proberen te zijn. Het gebruik van ai in malware past in dit klassieke patroon.

Het vormt geen reden om met de ontwikkeling van ai te stoppen. Aan de andere kant is uiterste waakzaamheid geboden, waarschuwt Europol. ChatGPT kan aspirant-criminelen op ideeën brengen. De software helpt lieden die geen enkele kennis van cybercrime hebben, snel op weg. Je hoeft maar een paar vragen te stellen en de tool leert je alle trucjes. Of het nu gaat om inbreken, cybercriminaliteit dan wel terroristische daden, ChatGPT neemt ieder persoon met slechte bedoelingen bij de hand. De tool stroomlijnt hacks, zorgt voor meer nauwkeurigheid en versnelt alles, stelt it-beveiliger Check Point.

Taalvaardig

Criminelen die niet al te taalvaardig zijn, kunnen dankzij deze tool precies de teksten opstellen die tot succesvolle phishing leiden. Vroeger vielen fraudeurs door de mand vanwege hun erbarmelijke Engels. Die tijd is voorbij, waarschuwt Europol. Ook bijvoorbeeld ceo-fraude – oplichting waarbij de crimineel zich voordoet als een hooggeplaatste medewerker – wordt een fluitje van een cent. ChatGPT kan zich precies het taalgebruik van een topmanager eigen maken. Ook heeft de chatbot veel gevoel voor de context waarin zich iets afspeelt.

Met name bedrog waarbij sprake is van social engineering, wordt nu gemakkelijk. Volgens Europol biedt GPT online-fraudeurs kans sneller, authentieker en op veel grotere schaal te opereren. Ook verspreiders van propaganda, nepnieuws en desinformatie gaan deze tool gebruiken.

ChatGPT is in handen van criminelen een gevaarlijke tool. Deze technologie werkt ook in ander opzicht drempelverlagend. ChatGPT kan automatisch code genereren in verschillende programmeertalen. Zelfs criminelen met weinig technische kennis zijn nu in staat malware te ontwikkelen, waarschuwt Check Point. Het beeld dat voormalige tasjesdieven gewapend met ChatGPT op virtuele rooftocht gaan, benauwt Europol.

Kleine stapjes

OpenAI, het bedrijf achter ChatGPT, probeert wel te voorkomen dat ChatGPT malware gaat maken. Maar deze waarborgen werken alleen maar als het model begrijpt wat het aan het doen is. En dat is niet altijd het geval. Volgens Europol is het gemakkelijk veiligheidsmaatregelen te omzeilen door bedenkelijke opdrachten op te delen in kleine stapjes.

Check Point bevestigde medio maart in een eerste security-analyse van GPT4 dat aanvallers ondanks de nieuwe beperkingen zonder veel hinder hun doelen kunnen bereiken. De it-beveiliger deelde vijf scenario’s van mogelijk kwaadaardig gebruik van de chat-robot. Voor phishing-doeleinden kunnen criminelen nu gemakkelijk een bank nabootsen. Ook phishing waarbij de aanvaller e-mails naar werknemers stuurt, is geen enkel probleem.

Een derde bedreiging is C++-malware die pdf-bestanden verzamelt en naar ftp stuurt. Verder stelt ChatGPT criminelen in staat via een php reverse shell computers van slachtoffers binnen te dringen. Een vijfde scenario is het maken van een simpele Java-snippet om Putty, een veel voorkomende ssh- en telnet-client, te downloaden. Deze is vervolgens heimelijk op het systeem uit te voeren met behulp van PowerShell. Dit script is natuurlijk aan te passen om elk programma te downloaden en uit te voeren, inclusief veel voorkomende malware-families.

Hackforums

Check Point signaleerde al in januari de eerste gevallen van cybercriminelen die met ChatGPT kwaadaardige tools ontwikkelen. Amper twee maanden na de eerste test-release van ChatGPT verschenen op hackforums infostealers, coderingstools en andere faciliteiten voor fraude. Vlak na kerst liet een cybercrimineel zien hoe je met ChatGPT malware-families en -technieken kunt nabootsen die worden beschreven in onderzoekpublicaties en artikelen over veel voorkomende malware. Een andere fraudeur demonstreerde hoe hiermee scripts voor een darkweb-marktplaats zijn te maken.

Anderzijds biedt generatieve ai ontwikkelaars ook mogelijkheden om heel snel software te ontwikkelen. Ai-tools hebben eigenschappen van ‘low-code/no-code’. Maar volgens adviesbureau Boston Consulting Group brengt dat het gevaar met zich mee dat bijvoorbeeld marketingmensen met weinig verstand van programmeren onveilige software maken. Ze kunnen overmoedig raken en in hun enthousiasme voorbijgaan aan bepaalde veiligheidsregels.

Volgens het NYU Center for Cybersecurity is veertig procent van de code die ai genereert, gewoonweg onveilig. Omdat de meeste medewerkers in een bedrijf de gevaren niet kunnen overzien, leidt dit tot een behoorlijk veiligheidsrisico. Stanford University constateert dat ook de kwaliteit van de software in het geding is.

Medewerkers moeten geen gevoelige informatie in ChatGPT stoppen want OpenAI slaat alle gegevens op om hun modellen continu mee te trainen. Zelfs Microsoft, de grootste financier van dit ai-bedrijf, waarschuwt zijn personeel geen gevoelige data met ChatGPT te delen.

Tegenwoordig zijn er weinig manieren om dit soort grote taalmodellen te gebruiken zonder gegevens vrij te geven. Een optie voor gegevensprivacy is om het volledige model op locatie of op een speciale server op te slaan. Maar dat is niet voor iedereen weggelegd. Onlangs bleek de chatgeschiedenis bij ChatGPT niet veilig wat tot een storing leidde.

Monster van Frankenstein

Behalve dat GPT in handen van lieden met kwaadaardige bedoelingen een gevaar vormt, bestaat bezorgdheid dat dit soort ai-systemen op hol kunnen slaan. GPT wordt weleens afgeschilderd als een monster van Frankenstein dat zich tegen mens en maatschappij gaat keren. Zelfs ai-systemen die zijn geprogrammeerd om iets goed te bereiken, kunnen desastreuze methoden ontwikkelen om dat doel te halen.

De komst van geavanceerde ai-systemen die mensachtig gedrag vertonen, heeft de angst vergroot. Om die reden hebben al 50.000 mensen waaronder veel ceo’s en ai-wetenschappers een petitie ondertekend om ten minste zes maanden te stoppen met het trainen van de komende generatie ai. Het gaat dan om ai-systemen die krachtiger zijn dan het onlangs gelanceerde GPT-4. Ai-labs en onafhankelijke experts moeten die pauze gebruiken om gedeelde veiligheidsprotocollen voor geavanceerd ai-ontwerp en -ontwikkeling te maken. De naleving hiervan komt onder streng toezicht en strikte controle van onafhankelijke externe deskundigen te staan. Net als dit gebeurt bij menselijk klonen en eugenetica.

Meer over

CybercrimeKunstmatige intelligentieMalwarePhishing

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Slimme connectiviteit: de toekomst van bouwen

    Hoe stoom jij jouw organisatie in de bouw en installatie sector klaar voor de digitale toekomst?

    Computable.nl

    Design Sprints: 4 dagen van idee naar prototype

    Hoe zet je in vier dagen tijd een gevalideerd prototype neer met Design Sprints?

    Computable.nl

    Dit is de weg naar informatietransformatie

    In een wereld waar data en informatie centraal staan, moeten organisaties zich aanpassen aan de digitale toekomst. Informatietransformatie is de sleutel tot het versterken van beveiliging en het bevorderen van efficiëntie.

    Meer lezen

    ActueelData & AI

    ‘Regering verschuilt zich achter AP in ChatGPT-debat’

    Waarschuwing
    ActueelInnovatie & Transformatie

    WHO maant tot voorzichtigheid bij ai-gebruik

    ActueelCarrière

    Hogeschool Rotterdam vervangt docent door ChatGPT

    ActueelInnovatie & Transformatie

    Biden wil publieke consultatie over ChatGPT

    Alibaba
    ActueelData & AI

    Alibaba lanceert concurrent van ChatGPT

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Abonneren Magazine
    • Cybersec e-Magazine

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs