Videobellen en telefoongesprekken met AI: wat moet je weten over AI-fraude?

Deepfake

Bel je met een bekende óf toch met AI? Door ontwikkelingen van AI-systemen wordt het verschil tussen echt en nep materiaal steeds lastiger te herkennen. Hoewel je dankzij deze technieken grappige nepvideo's kunt maken, maken ook fraudeurs sluw gebruik van de AI-ontwikkelingen. Hoe gaat AI-fraude eigenlijk te werk? En hoe bescherm je jezelf ertegen? Radar zoekt het uit. 

Deepfake

Met het inzetten van AI kunnen fraude-acties steeds persoonlijker en gerichter worden ondernomen. “De AI-systemen kunnen op veel verschillende manieren worden ingezet bij fraude,” vertelt Thijs van Ede, universitair docent in AI en Security op de Universiteit Twente. “Een methode die veel gebruikt wordt bij AI-fraude is deepfake.”

Hij vervolgt: “Dat zijn AI-systemen die proberen nepmateriaal van mensen te maken, vaak in de vorm van video of audio. Met dit nepmateriaal kunnen fraudeurs hun slachtoffers benaderen. De ontvanger denkt daardoor contact te hebben met een echt persoon, zoals hun broer of collega. Maar eigenlijk praat diegene met een AI-systeem, zoals ChatGPT of Microsoft Copilot.”

Hoe een deepfake wordt gemaakt

Het achterliggende AI-systeem heeft een aantal dingen nodig voor het maken van een deepfake. “Om een persoon na te bootsen heeft het systeem beeld- en stemmateriaal nodig,” vertelt Van Ede. “Met die beelden weet het systeem hoe een persoon eruitziet, hoe diegene beweegt en praat.”

“Dus op het moment dat een AI-systeem deze informatie weet, kan hij dit persoon namaken en dingen laten zeggen. Zo kan een deepfake ontwikkeld worden, waarin een zoon met vader belt bijvoorbeeld.”

AI-fraude in de praktijk

Deepfakes kunnen veel verschillende vormen aannemen, dankzij de snelle ontwikkeling van AI. “Zo is het mogelijk om beelden te laten bewegen en een nagemaakt persoon direct op je te laten antwoorden,” illustreert Van Ede. Hoe zien die ontwikkelingen er precies uit? 

Van Ede geeft een aantal voorbeelden:

  1. Whatsapp voice-berichten

    Stel je ontvangt een voice-bericht van een onbekend nummer, waarin het volgende besproken wordt: ‘Hé pap, ik ben op vakantie en ben mijn telefoon kwijtgeraakt. Ik heb een nieuw nummer, zou je geld over willen maken op deze rekening.’ Op het moment dat gebruik wordt gemaakt van een overtuigende stem, zul je snel denken een echt bericht van je dochter of zoon ontvangen te hebben. 

  2. Videobellen

    Er zijn tools in ontwikkeling die jou live van antwoorden kunnen voorzien. Je antwoord wordt namelijk doorgesluisd naar een videogenerator, waardoor je direct een antwoord krijgt tijdens het videobellen. Het lijkt daardoor alsof je echt een gesprek voert met mensen.

  3. Spamoproepen

    In zulk soort telefoongesprekken bel je eigenlijk met een AI-systeem, zoals ChatGPT. Je belt dus niet met een mens. In deze gesprekken kan gevraagd worden naar je creditcardgegevens, of wordt je bijvoorbeeld wijs gemaakt dat je bankaccount verlopen is. 

  4. Pig butchering

    Oftewel: datingfraude. Hierbij denken slachtoffers in een relatie te zitten met een (bekend) persoon, maar eigenlijk zijn de foto’s en video’s gemaakt met AI. 

Scenario uit de realiteit

Om duidelijk te krijgen hoe fraudeurs te werk gaan, benaderen we Fraudehelpdesk.nl. Een woordvoerder vertelt over een casus waarbij gebruik is gemaakt van voice cloning: “Het ging om een melding van CEO-fraude. De CFO had via spraakmemo’s opdracht gegeven tot overboekingen van in totaal 2,5 miljoen euro.”

Hen vervolgt: “Toen aan het licht kwam dat dit geld onterecht was afgeschreven en de CFO de spraakmemo’s hoorde, kon ze zelf geen verschil horen tussen haar eigen stem en die op de spraakmemo. Terwijl ze uiteraard zelf deze opdracht niet gegeven had. Dus daar lijkt sprake geweest te zijn van voice cloning.”

“Helaas is een patroon nog niet vast te stellen, wel moeten we er rekening mee houden dat oplichting met behulp van AI gaat toenemen: oplichters zullen alles gebruiken wat voor handen is om (op grote schaal) te kunnen opereren.” 

Herkennen versus genereren

Hoewel je nu weet hoe AI-technieken worden ingezet door fraudeurs, blijkt het herkennen van deze AI-gegenereerde beelden helaas niet zo makkelijk. “Bij het maken van deepfakes worden twee soorten AI-systemen ingezet,” legt Van Ede uit. “Die twee systemen vullen elkaar aan: het ene AI-systeem produceert nepbeelden en kan daarbij fouten maken, het andere AI-systeem speurt deze fouten op.”Hij vervolgt: “Het producerende AI-systeem zal vervolgens de foutjes verwerken, waardoor een realistischere deepfake wordt gemaakt. Dit proces herhaalt zich duizenden tot miljoenen keren achter elkaar.” 

Als wij beter worden in het onderscheiden van echt- en nepmateriaal, zetten fraudeurs deze techniek in bij het verbeteren van hun deepfakes. “Er ontstaat een wapenwedloop tussen het beter genereren en het beter detecteren,” besluit de universitair docent. 

Er ontstaat een wapenwedloop tussen het beter genereren en het beter detecteren
Thijs van Ede, universitair docent in AI en Security

Het heft in eigen hand

Ondanks de snelle aanscherping van deepfakes en moeilijkheden bij het onderscheiden van echt en nep, zijn er een aantal tips waarmee je het risico op AI-fraude kunt verminderen. We bespraken het met Van Ede en Jan-Willem Bullee, onderzoeker evidence-based cyber-security aan de Universiteit Twente.

Hoe kun je jezelf beschermen?

  1. Bewustwording

    Sommigen ervaren meer moeite met het herkennen van AI-beelden, of zijn zich minder bewust van het bestaan van deze technieken. Je kunt het gesprek met hen aangaan, en vertellen over de gevaren van AI-fraude. 

  2. Controleer de afzender

    Fraude kun je soms herkennen aan een verdachte afzender. Zo kunnen opvallende domeinnamen en gekke linkjes een aanwijzing zijn voor fraude. Let bijvoorbeeld op typefouten. 

  3. Codewoord

    Je kunt met je naasten een codewoord afspreken, zodat je iemands identiteit kan controleren. Dit codewoord kun je inzetten op het moment dat je hulp nodig hebt, bijvoorbeeld als je om geld vraagt. Zorg ervoor dat deze informatie niet publiekelijk op het internet staat, want dan kunnen fraudeurs er alsnog gebruik van maken. 

  4. Online bescherming

    Deepfakes kunnen met behulp van afbeeldingen en audiofragmenten ontwikkeld worden. Je kunt er dus voor kiezen minder foto’s en informatie van jezelf op het internet te plaatsen. Ook het afschermen van je sociale media voor vreemden maakt het lastiger om bij jouw gegevens te komen. 

  5. Gebruikelijke bescherming

    Het blijft van belang om jezelf digitaal te beschermen. Gebruik bijvoorbeeld unieke wachtwoorden met een password manager en vertrouw een wifi-spot in een openbare ruimte niet gelijk. 

  6. Elkaar bellen

    Op het moment dat je een gesprek niet vertrouwt, kun je de verbinding verbreken. Vervolgens kun je de afzender terugbellen op het telefoonnummer dat jij hebt. Deze techniek kun je toepassen op het moment dat er bijvoorbeeld verdachte of lastige vragen worden gesteld. 

Hoe doe je aangifte? 

Ben je toch onverhoopt slachtoffer geworden van deze vorm van fraude? Je hoeft er niet alleen mee rond te blijven lopen. Je kunt een melding maken via de Fraudehelpdesk. Ook is het belangrijk om officieel bij de politie aangifte te doen. Alleen via deze weg kan er een strafrechtelijk onderzoek gestart worden.