BLOG – Wist je dat het aantal deepfakes wereldwijd op twee jaar tijd maar liefst zestien keer is toegenomen? Dankzij artificiële intelligence (ai) is het makkelijker dan ooit om een stem te imiteren of een gezicht na te maken en zo een overtuigende nepvideo te verspreiden. Dat kan leiden tot gevaarlijke situaties, zoals identiteitsfraude of het manipuleren van verkiezingscampagnes, zoals we al meerdere keren zagen in andere landen. Technologie in combinatie met menselijk bewustzijn wordt onmisbaar om de echtheid van beelden te controleren en misleiding te voorkomen.
De snelle groei van deepfakes stelt onze wetgeving op de proef. Hoewel de GDPR persoonsgegevens beschermt en veel landen auteurs- en portretrecht toepassen, bieden die regels weinig houvast in een tijd waarin ai razendsnel en overtuigend beelden en stemmen kan nabootsen. In theorie mag niemand zonder toestemming deepfakes maken van een persoon. Het portretrecht blijft zelfs tot tien jaar na overlijden van kracht, waarna erfgenamen het recht nog kunnen inroepen. Maar ook dan blijft het ethisch discutabel om iemand digitaal tot leven te wekken, zelfs met toestemming. In de praktijk wordt het maken en verspreiden van deepfakes zelden vervolgd, mede omdat het steeds lastiger wordt om echte en gemanipuleerde beelden van elkaar te onderscheiden.
Niet alleen technologie, ook menselijk bewustzijn
De uitdaging rond het verifiëren kunnen we deels het hoofd bieden met behulp van technologie. Authenticatietechnologieën voegen bijvoorbeeld extra context toe aan beelden, zoals watermerken, tijdstempels, digitale handtekeningen, locatiegegevens en bewegingsinformatie.
Ook openbare registers waarin ai-algoritmes worden geregistreerd, vergroten de controle op echtheid. Ze vermelden onder meer waarvoor een algoritme bedoeld is, wie het ontwikkelde en hoe het beveiligd is. Zo creëren ze transparantie en helpen ze deepfakes sneller te ontmaskeren. Deze authenticatiemiddelen en registers helpen om vast te stellen of beelden echt zijn en maakt ze zelfs bruikbaar als bewijs in rechtszaken.
Train je medewerkers om afwijkende beelden te herkennen en verdachte situaties te melden
Deze technologieën zijn alleen effectief als mensen weten hoe ze ermee moeten omgaan. Train je medewerkers om afwijkende beelden te herkennen en verdachte situaties te melden, zodat manipulatie sneller aan het licht komt. Leer hen waarop ze moeten letten om te zien of een beeld echt is. Let bijvoorbeeld op onscherpe of vertraagde pixels, onnatuurlijke bewegingen van ogen, wenkbrauwen en mond, een te gladde huid of juist vreemd gerimpelde huid, afwijkende schaduwen en de lichtinval, of haperingen in het beeld. Zulke kleine details kunnen verraden dat een video mogelijk gemanipuleerd is of zelfs een deepfake betreft.
Vooruitgang vraagt samenwerking
Iedereen draagt verantwoordelijkheid voor een betrouwbare digitale wereld: bedrijven moeten open zijn over hoe ze beelden opslaan, verwerken en beveiligen, en transparant communiceren over hun gebruik van ai en cameratechnologie. Onderzoekers dienen continu te zoeken naar nieuwe methoden om de echtheid van beelden te controleren. Wetgevers moeten duidelijke en handhaafbare regels opstellen, zoals de AI Act, de Cyber Resilience Act, en richtlijnen als NIS2 en CER. Consumenten moeten kritisch blijven in wat ze zien en delen online. Die kritische blik begint al op school, waar kinderen en studenten moeten leren hoe ze (digitale) beelden kunnen beoordelen en begrijpen.
Technologische ontwikkeling gaat vaak sneller dan regelgeving kan bijbenen. Daarom blijft een kritische houding van iedereen onmisbaar: waar komt het beeld vandaan? Is de bron betrouwbaar? En vertrouw je het genoeg om te delen? Bij twijfel, meld het bij de bron zelf, bijvoorbeeld via de meldfunctie van een sociaal mediaplatform of door contact op te nemen met de redactie van een publicatie. En twijfel je nog, verspreid het dan zeker niet verder. Alleen door alert te blijven en samen te werken, kunnen we de digitale wereld veilig en betrouwbaar houden.
Erik Baeten, architect & engineering manager Axis Communications

Auteur vergeet dat beeldmanipulatie zo oud is als de macht zelf. Van Stalin tot CNN, van Photoshop tot TikTok zijn beelden wapens in het gevecht om betekenis. Auteur behandelt ze nog als de neutrale data, terwijl ze in werkelijkheid ideologische projecties zijn. De echte uitdaging is niet beeldverificatie maar beeldduiding met vragen zoals wat betekent dit, voor wie en waarom.
Auteur focust op het detecteren van deepfakes maar dat is slechts de oppervlakte want ook echte beelden kunnen misleidend zijn door context, uitsnede, timing of kleurgebruik. De waarom in de beeldvorming gaat dan vooral om een historisch bewustzijn, mediawijsheid en politieke sensitiviteit.
De grootste invloed van Deepfakes zal zijn dat audiovisueel bewijs steeds meer in twijfel getrokken zal worden in rechtszaken en dat zelfs wanneer er beelden zijn van een misdaad de verdediging zal claimen dat dit gemanipuleerd kan zijn. Vanwege het feit dat deepfakes steeds beter worden zullen rechters hier op een gegeven moment in mee (moeten) gaan.
Zo kan dus vrijwel niets meer bewezen worden en gaan steeds meer daders vrijuit. Cameras zullen een soort blockchain technologie moeten krijgen om te kunnen bewijzen dat het opgenomen beeld niet gemanipuleerd is.
Audiovisuele bewijsvoering — zoals beelden van een bodycam — draait niet om de ideologische projecties die gepaard gaan met deepfakes of digitale manipulatie. In de rechtszaal zal een rechter allereerst de chain of custody beoordelen. De herkomst, overdracht en de integriteit van het bewijs. Pas wanneer deze keten sluitend en betrouwbaar is, komt de chain of credibility, de inhoudelijke geloofwaardigheid, aan bod. Een rammelende chain of custody ondermijnt vooral de betrouwbaarheid van het bewijs maar dat betekent niet dat het bewijs automatisch wordt uitgesloten, het krijgt een andere juridische weging. De rechter kan het bewijs minder zwaar laten meewegen of aanvullende waarborgen eisen voordat het als overtuigend wordt beschouwd.
De halve waarheid en de hele leugen ontstaan door uitsnijding, timing en framingzijn geen nieuw fenomeen. Het gaat niet altijd om deepfakes. De kracht van beeldvorming werd al begrepen door Leni Riefenstahl, lang voordat kunstmatige intelligentie bestond. Haar werk toont aan dat visuele manipulatie ook zonder digitale middelen een krachtige invloed kan uitoefenen op perceptie en overtuiging. Wat de ogen zien maar wat het gezonde verstand niet wil geloven want de goochelaar weet dat het publiek niet kijkt naar wat er gebeurt, maar naar wat het denkt dat er gebeurt.