Welkom in het tijdperk van de ‘ai attack factory’
Anthropic heeft een nieuw ai-model ontwikkeld dat zo krachtig is dat het bedrijf het bewust niet publiek uitbrengt. Claude Mythos Preview kan zelfstandig beveiligingslekken opsporen in software, maar even goed exploits ontwikkelen om die lekken te misbruiken. Die dubbelzijdigheid maakt het model tot een van de meest controversiële ai-releases van het moment.
Mythos wordt uitgerold via Project Glasswing, een samenwerkingsverband van tientallen technologiebedrijven. Zo zijn onder meer Amazon Web Services, Apple, Google, Microsoft, Nvidia, Cisco, CrowdStrike en Palo Alto Networks betrokken. Zij krijgen als eersten toegang tot de testversie, net als meer dan veertig organisaties die kritieke software-infrastructuur bouwen of beheren. Anthropic investeert daarvoor honderd miljoen dollar aan gebruikerscredits, aangevuld met vier miljoen dollar aan donaties aan opensource-beveiligingsorganisaties.
Mede omdat het al duizenden ernstige kwetsbaarheden heeft gevonden, hanteert Mythos Preview een selectieve aanpak. Het gaat volgens hen om lekken in elk groot besturingssysteem en elke grote webbrowser, waarvan sommige al 27 jaar onopgemerkt. ‘Ai-modellen hebben een zodanig niveau van programmeervaardigheid bereikt dat ze elke mens, behalve de meest vaardigen onder ons, kunnen overtreffen in het opsporen en misbruiken van kwetsbaarheden in software’, schrijft Anthropic in zijn aankondiging.
Aanvallen als softwareproductie
Volgens Jonathan Zanger, cto bij Check Point Software Technologies, luidt Mythos het tijdperk in van de ‘ai attack factory’. ‘Aanvallen worden systematisch, schaalbaar en reproduceerbaar, vergelijkbaar met softwareproductie.’
Ook Nanne van ’t Klooster, ai-security-expert bij het Amsterdamse adviesbureau Rewire, ziet in Mythos een indicatie van een fundamentele verschuiving. ‘Zo is het nu mogelijk om ai-agents doorlopend te voorzien van de laatste inzichten, en 24 uur per dag te laten zoeken naar zwakheden in de cyberbeveiliging’, zegt hij.
Bedrijven moeten hun voorzorgen nemen. ‘Het vereist een tegenreactie waarbij organisaties hun eigen cybersecurity-agents moeten inzetten die eveneens continu speuren naar de laatste dreigingen’, aldus van ’t Klooster. Al blijft mensen in de loop houden volgens hem essentieel. ‘Als niemand meer begrijpt hoe het eigen beveiligingssysteem werkt, ben je juist extreem kwetsbaar.’
Geen paniek stoken
Dat Anthropic zijn ai-model, en de conclusies ervan, helemaal voor zichzelf en zijn partners wil houden, klopt ook niet helemaal. Het ai-bedrijf wil de bevindingen van Mythos publiekelijk delen via het responsible disclosure-principe, waarbij bedrijven doorgaans negentig dagen krijgen om een kwetsbaarheid te verhelpen voordat die openbaar wordt gemaakt.
Al plaatst de Nederlandse cio en security-expert Fleur Van Leusden tenslotte wel kritische kanttekeningen bij de Mythos-hype die in één dag tijd opdook. Ze wijst er via LinkedIn op dat Anthropic ‘over 99 procent van de bevindingen niets kan zeggen, want die zijn nog niet gepatched.’ Bovendien, zo stelt ze, lijkt het te gaan om een whitebox-test waarbij Mythos toegang had tot de volledige broncode van de onderzochte applicaties. ‘Dat is nog steeds knap, maar wel wat anders dan closedsource-software.’
Van Leusden deelt evenwel de zorgen over de impact. ‘Wel denk ik dat we moeten uitkijken met de angst en paniek die lijkt te ontstaan op basis van het – zoveelste – staaltje promotie van Anthropic’, waarschuwt ze. ‘Eerst zien, dan geloven.’