Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Awards
    • Overzicht
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Magazine
  • Nieuwsbrief
Onderstaande bijdrage is van een externe partij. De redactie is niet verantwoordelijk voor de geboden informatie.

Versterk software supply chain en governance voor ai-beveiliging

13 januari 2025 - 14:415 minuten leestijdOpinieSecurity & Awareness
Srikrishna Shankavaram
Srikrishna Shankavaram

BLOG – Met de toename van ai-oplossingen binnen bedrijven groeit ook het aanvalsoppervlak voor ai-systemen. Tegelijkertijd hebben kwaadwillenden geavanceerde ai-tools tot hun beschikking. Overheden, regionale wetgevers en de private sector erkennen deze bedreigingen en nemen ze steeds serieuzer.

Op het Aspen Security Forum lanceerde een groep toonaangevende techbedrijven de Coalition for Secure ai (CoSai). Deze coalitie richt zich op het aanpakken van cruciale ai-beveiligingsvraagstukken, zoals het beveiligen van de software supply chain van ai-systemen, het voorbereiden van beveiligers op een veranderend dreigingslandschap en het bevorderen van ai-risicobeleid. Nu hackers ai inzetten bij phishingmails en ‘deepfake’-aanvallen, is de noodzaak van solide ai-beveiliging groter dan ooit.

Een experiment van het Singaporese Government Technology Agency (GovTech) laat zien dat ai-gegenereerde phishingmails effectiever waren dan handgeschreven e-mails. Verder werd een financieel medewerker van een multinational tijdens een videoconferentie vorig jaar misleid om 25 miljoen dollar over te maken aan fraudeurs. Zij maakten gebruik van deepfakes om zich voor te doen als de financieel directeur van het bedrijf.

Beide situaties onderstrepen het gevaar van door ai aangedreven cyberdreigingen. De lancering van CoSai is dan ook welkom.

Uitdagingen in de software supply chain van ai

Een belangrijke werkstromen waar CoSai zich op zal richten is het beveiligen van de supply chain voor ai-systemen. Deze omvat de gehele levenscyclus van ai-systemen, van dataverzameling en modeltraining tot inzet en onderhoud. Door de complexiteit en onderlinge verbondenheid van dit ecosysteem kunnen kwetsbaarheden in elke fase het hele systeem beïnvloeden.

Ai-systemen maken vaak gebruik van externe bibliotheken, frameworks en componenten. Hoewel dit een snellere ontwikkeling in de hand werkt, brengt het ook kwetsbaarheden met zich mee. Daarom is het essentieel om geautomatiseerde tools in te zetten die regelmatig de beveiligingsrisico’s van bijvoorbeeld deze externe bibliotheken controleren en aanpakken.

Daarnaast vraagt de brede beschikbaarheid van llm’s om een solide tracering van herkomst om de oorsprong en integriteit van zowel de modellen als de datasets te verifiëren. Geautomatiseerde beveiligingstools zijn noodzakelijk om deze modellen en datasets te controleren op kwetsbaarheden en malware. Llm’s op het apparaat bieden een betere gegevensbeveiliging omdat de berekeningen op het apparaat worden uitgevoerd zonder dat er een verbinding met de cloud nodig is.

Anonimiteit

Als we kijken naar closed source, kan de eigendomsrechtelijke aard van het model veiligheid bieden door anonimiteit. Het maakt het voor kwaadwillenden namelijk lastiger om kwetsbaarheden uit te buiten. Het betekent echter ook dat het identificeren en aanpakken van beveiligingsproblemen een langdurig proces kan zijn.

Open source biedt winst op het gebied van beveiliging door de gezamenlijke inspanningen van de ontwikkelgemeenschap. Het toeziend oog van velen op de code vergemakkelijkt de snelle opsporing en oplossing van zwakke plekken in de beveiliging. Desalniettemin kan het openbaar maken van de code potentiële zwakke plekken blootleggen.

Ai-risico’s en beveiligingsmaatregelen

CoSai’s focus op ai-beveiligingsbeleid is actueel. Zo heeft het National Institute of Science and Technology een document gepubliceerd waarin vier soorten aanvallen op machine learning worden beschreven. Deze omvatten: data poisoning, misbruik van gegevens, aanvallen op privacy en ontwijkingsaanvallen tegen voorspellende en generatieve ai-systemen.

Ook de Europese ai-wet legt nadruk op cybersecuritymaatregelen om aanvallen te voorkomen, detecteren, beantwoorden, oplossen en monitoren. Het gaat hierbij over het manipuleren van trainingsdata (data poisoning), het compromitteren van vooraf getrainde componenten die tijdens het trainingsproces worden gebruikt (model poisoning) en het invoeren van specifieke inputs die ontworpen zijn om het ai-model fouten te laten maken (adversarial examples of model evasion). Daarnaast omvat het aanvallen op de vertrouwelijkheid van het model (gevoelige data waarmee getraind is) of het misbruik van gebreken bij het model.

Bedrijven kunnen hun expertise delen door deel te nemen aan het regelgevingsproces en door onderzoek uit te voeren in samenwerking met klanten, partners, brancheverenigingen en onderzoeksinstellingen. Hun wederzijdse inzet voor innovatie vereist dat ai veilig is.

Standaardbibliotheek

Het effectief beheren van ai-beveiliging vereist gespecialiseerde middelen om de unieke uitdagingen en risico’s die gepaard gaan met ai aan te pakken. Het opstellen van een standaardbibliotheek voor het in kaart brengen van risico’s en beheersmaatregelen helpt om consistente ai-beveiligingsnormen in de hele sector te waarborgen. Bovendien kunnen organisaties hun ai-beveiligingsmaatregelen toetsen met behulp van een checklist voor de beoordeling van de volwassenheid van ai-beveiliging en een gestandaardiseerd scoresysteem. Dit proces geeft klanten vertrouwen in de veiligheid van ai-producten. Deze aanpak is vergelijkbaar met de bestaande software development lifecycle-praktijken) voor veilige softwareontwikkeling, waarbij beoordelingen plaatsvinden op basis van het Software Assurance Maturity Model (SAMM). Producten en oplossingen zijn vervolgens te gebruiken in toepassingen die organisaties helpen om te voldoen aan HIPAA, PCI-DSS en GDPR, FIPS-140-validatie en Common Criteria op producten. Organisaties zouden gebruik moeten maken van de ai-enablers, software developmentkits, api’s en ontwikkelaarstools van hun technologiepartners om eenvoudig en snel veilige, schaalbare digitale diensten te bouwen.

Netwerkrand

Techbedrijven kunnen zich inzetten voor het ontwikkelen van veilige ai-oplossingen die de productiviteit van werknemers verhogen en de implementatie aan de netwerkrand verbeteren. Dit is te bereiken door meerdere beschermingslagen te integreren en prioriteit te geven aan beveiliging die eenvoudig te implementeren is, zonder de prestaties te belemmeren. Net zoals bedrijven dat doen voor cybersecurity en andere initiatieven die bedrijfsbrede coördinatie vereisen, moeten ze doorgaan met het ontwikkelen van ai-processen, -principes, -tools en -training. Tegelijkertijd is het belangrijk om te zorgen voor consistentie en naleving door middel van een intern hub-and-spoke-beleid.

Srikrishna Shankavaram is hoofd cybersecurityarchitect en cto office bij Zebra Technologies

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Agentic AI in actie

    De stappen van automatiseren naar écht autonoom werken. Welke toepassingen zijn succesvol?

    Computable.nl

    Kies de juiste virtualisatie-aanpak

    Vergelijk drie krachtige open source-oplossingen: Proxmox, Kubernetes en OpenStack

    Computable.nl

    Beveiliging van AI in de praktijk

    AI is hot, maar de praktijk binnen grote organisaties blijkt weerbarstig. Stop met brandjes blussen; zo schaal en beveilig je met succes.

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Uitgelicht

    Pieter de Haer, Portfoliomanager Previder

    Partnerartikel
    AdvertorialCloud & Infrastructuur

    Hybride cloud: belofte of valkuil?

    Pieter de Haer, Portfoliomanager Previder De hybride cloud is de belofte van dit moment. Organisaties zien een model voor zich...

    Meer persberichten

    Meer lezen

    Liveblog Cybersec
    ActueelSecurity & Awareness

    Liveblog – updates vanaf Cybersec 2025

    Ransomware data opslag
    AchtergrondSecurity & Awareness

    Ransomware in de zorg, hoe gaat Eurofins om met Nederlandse data?

    NIS 2
    ActueelSecurity & Awareness

    Tweede Kamer kritisch op NIS2-wetgeving

    Cybersec
    ActueelSecurity & Awareness

    Cybersec Netherlands 2025: resilience, soevereiniteit en ai als drijvende krachten

    [Afbeelding: Sergey Nivens/Shutterstock.com]
    ActueelData & AI

    Kort: GPUGate is complexe cyberaanval op it-sector, Copilot valt tegen (en meer)

    M&A, Fusie & Overname
    ActueelSecurity & Awareness

    Cybersecurity is business

    ...

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Ontvang Computable e-Magazine
    • Cybersec e-Magazine
    • Topics
    • Phishing
    • Ransomware
    • NEN 7510

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs