3min Security

“Alleen AI kan straks nog deepfakes herkennen”

“Alleen AI kan straks nog deepfakes herkennen”

“Een willekeurige video van iemand op TikTok of een ander platform of website van een paar minuten is genoeg om een deepfake te creëren.” Dit stelt Mark Evenblij. Hij is een van de oprichters van DuckDuckGoose. De snelle opkomst van generatieve AI en de steeds groter wordende mogelijkheden hiervan brengen niet alleen nieuwe kansen. Ze brengen ook aanzienlijke risico’s met zich mee, stelt hij.

Gemanipuleerde media

Deepfakes zijn door AI gegenereerde of gemanipuleerde media. Deze technologie maakt gebruik van beschikbare video’s, geluidsopnames of foto’s om de bewegingen, gezichtsuitdrukkingen en spraak van een persoon te leren.  En dat alles vervolgens na te bootsen. Hiermee creëert  AI een overtuigend digitaal duplicaat. Het is bijna niet van echt te onderscheiden.

Het fenomeen bestaat al langer. In 1997 werden de eerste wetenschappelijk papers geschreven over het gebruik van AI voor beeldmanipulatie. Pas in 2017, met de toegenomen kracht van computers en de beschikbaarheid van geavanceerde software, kwam de term ‘deepfake’ op. In 2019 werd de eerste open-source deepfake-software beschikbaar gesteld, en sinds 2021 kunnen deze technologieën in real-time werken met een kwaliteit die bijna niet van echt te onderscheiden is.

Fiets niet afsluiten

Deepfakes vormen een ernstige bedreiging voor onze digitale veiligheid en privacy. Ze maken het mogelijk om iemands ‘gezicht’ te stelen en te misbruiken voor frauduleuze doeleinden. Dit is een significant gevaar, vooral gezien het gemak waarmee we beeldmateriaal online delen. Zoals Evenblij treffend opmerkt, is het massaal onbewaakt achterlaten van beeldmateriaal op het web wellicht nog veel riskanter dan een fiets onbewaakt achterlaten in de binnenstad van Amsterdam.

Sommige banken vragen bijvoorbeeld om een gezichtsscan voor grote betalingen als onderdeel van meervoudige autorisatie. Hoewel dit meestal gecombineerd wordt met andere verificatiemethoden zoals een vingerafdruk of pincode, blijkt nu dat de afbeelding van het gezicht makkelijker te manipuleren is dan een vingerafdruk.

Impact

De mogelijkheid om met deepfakes verkiezingen te beïnvloeden of CEO-fraude te plegen is reëel. Wat begon met DDoS-aanvallen op websites van politieke partijen, iets dat overigens is nu geëvolueerd naar het gebruik van deepfakes om desinformatie te verspreiden en vertrouwen te ondermijnen. De technologie is toegankelijker dan ooit, met tools zoals DeepFaceLive, ontwikkeld door Russische studenten, waarmee gebruikers zonder programmeerkennis overtuigende deepfakes kunnen maken.

Antivirus

DuckDuckGoose, de organisatie die Evenblij mede oprichtte, speelt een cruciale rol in de strijd tegen deepfakes. Ze richt zich op digitale identiteitsverificatie en ontwikkelt systemen die kunnen controleren of beelden echt zijn of gemanipuleerd. De Tweede Kamer maakt bijvoorbeeld al gebruik van hun technologieën. DuckDuckGoose fungeert als een soort nieuwe antivirus, en past zich aan, aan de laatste ontwikkelingen.

Daarnaast monitoren ze actief hoe deepfakes worden gebruikt en treden ze op als ethical hackers om te zien wat er met deze technologieën bereikt kan worden. Dit helpt hen om hun systemen te blijven verbeteren en een stap voor te blijven op criminelen die steeds nieuwe methoden ontwikkelen om AI te misbruiken.

Deepfakes in de toekomst

De dreiging van deepfakes wordt groter naarmate de technologie verder evolueert. In de toekomst zullen we waarschijnlijk geconfronteerd worden met video’s waarin slechts kleine delen gemanipuleerd zijn, terwijl de rest echt lijkt. Dit maakt het nog moeilijker om waarheid van fictie te onderscheiden.

Het is essentieel dat we ons als maatschappij niet alleen bewust worden van deze gevaren, maar ook proactieve stappen ondernemen om ons ertegen te wapenen, stelt DuckDuckGoose. AI heeft het potentieel om deepfakes te herkennen, zelfs wanneer mensen dat niet kunnen. “Door te investeren in geautomatiseerde detectiesystemen en constant op de hoogte te blijven van de nieuwste technieken, kunnen we proberen een stap voor te blijven op de deepfakers.”