Koning Filip

Deepfake-oplichters imiteren koning Filip in videogesprekken: AI-technologie maakt fraude moeilijker te herkennen

Criminelen zetten vermoedelijk kunstmatige intelligentie in om overtuigende videobeelden van de Belgische koning te creëren. De techniek, die aanvankelijk voor entertainment bedoeld was, blijkt nu effectief genoeg voor grootschalige oplichting.

Een nieuwe vorm van digitale fraude toont aan hoe snel AI-technologie zich ontwikkelt – en hoe criminelen daar handig gebruik van maken. Oplichters benaderen hooggeplaatste Belgen en buitenlandse waardigheidsbekleders met videogesprekken waarin ze zich voordoen als koning Filip. Het federaal parket bevestigt dat de beelden “mogelijk gegenereerd zijn door artificiële intelligentie” en heeft een onderzoek geopend.

AI-deepfakes: van technische demonstratie naar fraudewapen

Het gebruik van AI-gegenereerde video’s markeert een nieuwe fase in digitale oplichting. Deepfake-technologie, die enkele jaren geleden nog een technische curiositeit was, is inmiddels voldoende toegankelijk geworden voor crimineel gebruik. De techniek combineert machine learning met gezichtsherkenning om bewegende beelden te creëren waarin iemands gezicht en stem vrijwel perfect worden nagebootst.

Waar vroeger een professionele filmstudio nodig was om overtuigende nepbeelden te maken, volstaan nu een goede grafische kaart en gratis beschikbare software. Online zijn talloze tutorials te vinden die uitleggen hoe de technologie werkt. Sommige AI-tools vereisen slechts enkele minuten videobeelden van de te imiteren persoon – materiaal dat voor publieke figuren zoals koning Filip ruimschoots beschikbaar is via nieuwsbeelden en officiële optredens.

Hoe de technische aanpak werkt

De oplichters hebben een meerlagige strategie ontwikkeld die technologie combineert met psychologische manipulatie. Sinds begin 2024 benaderen ze zorgvuldig geselecteerde slachtoffers via verschillende digitale kanalen: telefoon, Whatsapp en e-mail. Het gaat om mensen met vermoedelijke connecties met het koningshuis – informatie die relatief eenvoudig te verzamelen is via sociale media zoals LinkedIn, zakelijke databases en nieuwsberichten.

De meest recente golf, die begin januari 2025 startte, bevat het technologische hoogtepunt: videogesprekken waarin slachtoffers denken met de koning zelf te spreken. Dit wijst op een doorontwikkeling van de gebruikte techniek. Eerdere deepfakes waren vaak herkenbaar aan onnatuurlijke bewegingen, vreemde oogbewegingen of lipsynchronisatie die net niet klopte. De huidige generatie AI-tools produceert echter in real-time beelden die deze kinderziektes grotendeels overwonnen hebben.

Het is niet duidelijk welke specifieke software de criminelen gebruiken. Mogelijk gaat het om aangepaste versies van tools zoals DeepFaceLive of vergelijkbare open-source software die normaal voor livestreaming wordt ingezet. Ook is niet bekend of de videogesprekken volledig geautomatiseerd verlopen of dat er menselijke bediening bij komt kijken – bijvoorbeeld iemand die de koning “bestuurt” terwijl de AI het gezicht en de stem aanpast.

Meerdere identiteiten voor meer geloofwaardigheid

Naast koning Filip maken de oplichters ook misbruik van de identiteit van Vincent Houssiau, kabinetschef van de vorst, en generaal-majoor Stéphane Dutron, hoofd van de militaire inlichtingendienst ADIV. Deze tactiek – waarbij meerdere “vertegenwoordigers” elkaar bevestigen – is een bekend principe uit social engineering: hoe meer gelaagdheid, hoe geloofwaardiger het verhaal.

Het technische plaatje wordt compleet gemaakt door verschillende communicatiekanalen. De oplichters gebruiken niet alleen video, maar ook e-mail en Whatsapp. Dit multichannel-karakter vergroot de geloofwaardigheid: slachtoffers ontvangen bijvoorbeeld eerst een e-mail van het “kabinet”, vervolgens een Whatsapp-bericht, en uiteindelijk een videogesprek. Elke stap bouwt voort op de vorige en maakt het moeilijker om de fraude te herkennen.

Twee verhaallijnen, verschillende doelgroepen

De criminelen hanteren verschillende scenario’s. In 2024 draaide het om vermeend gegijzelde Belgische journalisten in Syrië, waarvoor losgeld nodig zou zijn. Hoewel de meeste benaderde personen het bedrog doorzagen, werd er in minstens één geval wel degelijk geld overgemaakt. Het federaal parket geeft geen details over het bedrag, maar het succes was kennelijk voldoende om door te gaan.

Recent kwam daar een tweede verhaallijn bij: valse uitnodigingen voor een galadiner van de Koning Boudewijnstichting, waarbij bedrijfsleiders worden gevraagd om sponsorbijdragen. Deze variant lijkt specifieker gericht op bedrijfsbudgetten voor maatschappelijk verantwoord ondernemen of filantropie – posten waar in veel organisaties substantiële bedragen voor gereserveerd zijn en waar de drempel om “ja” te zeggen lager ligt dan bij privévermogen.

Technische verdediging blijft achter

De zaak illustreert een fundamenteel probleem in de digitale veiligheid: detectietechnologie loopt achter op de ontwikkeling van deepfakes. Terwijl tools om nepbeelden te maken steeds beter worden, blijven methoden om ze te ontmaskeren experimenteel en niet waterdicht. Sommige platforms zoals YouTube en Facebook hebben AI-gestuurde detectiesystemen, maar die zijn vooral effectief bij vooraf opgenomen content, niet bij live-videogesprekken.

Voor gebruikers zijn er weinig technische oplossingen. Videobelbedrijven zoals Zoom, Microsoft Teams en WhatsApp hebben geen ingebouwde deepfake-detectie. De verantwoordelijkheid ligt dus volledig bij de ontvanger om alert te blijven – een uitdaging wanneer de technologie zo overtuigend is.

Beveiligingsexperts adviseren daarom om bij onverwachte financiële verzoeken altijd een verificatiestap in te bouwen via een ander kanaal. Bijvoorbeeld: ophangen en zelf terugbellen naar een bekend, geverifieerd nummer. Of: een vraag stellen die alleen de echte persoon zou kunnen beantwoorden. Maar zelfs deze methoden worden minder betrouwbaar naarmate AI ook stemmen beter imiteert en criminelen toegang krijgen tot meer persoonlijke informatie via datalekken.

Breder patroon van AI-misbruik

Deze zaak is geen geïsoleerd incident. Wereldwijd worden vergelijkbare technieken ingezet voor CEO-fraude, waarbij werknemers denken instructies te krijgen van hun directeur, of voor romantische oplichting waarbij criminelen nep-videogesprekken voeren met nietsvermoedende slachtoffers. Vorig jaar waarschuwde Europol al voor de opkomst van AI-gestuurde fraude als een van de snelstgroeiende cyberdreigingen.

Het cynische is dat veel van de onderliggende technologie oorspronkelijk voor legitieme doeleinden werd ontwikkeld: speciale effecten in films, toegankelijkheidstoepassingen voor mensen met spraakstoornissen, of virtuele assistenten. Maar zoals vaker in de techgeschiedenis, is er weinig tijd tussen “dit is een fascinerende doorbraak” en “criminelen gebruiken dit massaal”.

Onderzoek en opsporing

Het federaal parket werkt samen met de Federal Computer Crime Unit (FCCU) en gespecialiseerde diensten van de federale politie. Het onderzoek moet uitwijzen wie verantwoordelijk is en of er internationale netwerken bij betrokken zijn. Gezien de technische complexiteit is het aannemelijk dat de daders enige technische kennis hebben of toegang tot specialisten.

Opsporing van dergelijke criminaliteit is complex. De daders gebruiken vermoedelijk versleutelde communicatie, VPN-diensten om hun locatie te verhullen, en cryptocurrency voor eventuele geldstromen. De videobeelden zelf leveren vaak weinig forensisch bewijs op, omdat ze synthetisch gegenereerd zijn en geen metadata bevatten die naar een locatie of apparaat wijzen.

Wat kunnen gebruikers doen?

Voor potentiële slachtoffers zijn er enkele praktische waarschuwingssignalen, hoewel geen daarvan waterdicht is:

  • Onverwachte financiële verzoeken, ook van bekende contacten, altijd verifiëren via een ander kanaal
  • Let op technische onvolkomenheden: vreemde schaduwen, onnatuurlijke oogbewegingen, lipsynchronisatie die niet perfect klopt
  • Wees extra alert bij verzoeken om snel te handelen of geheimhouding – klassieke drukfactoren uit social engineering
  • Controleer e-mailadressen nauwkeurig: oplichters gebruiken vaak domeinen die lijken op officiële adressen maar subtiel afwijken

De Koning Boudewijnstichting benadrukt dat zij nooit op deze manier om geld vraagt en dat alle meldingen worden doorgegeven aan het parket.

Technologie versus waakzaamheid

Uiteindelijk legt deze zaak een ongemakkelijke realiteit bloot: technologie ontwikkelt zich sneller dan ons vermogen om ermee om te gaan. AI-tools democratiseren vaardigheden die vroeger specialistisch waren, maar maken daarmee ook geavanceerde fraude toegankelijk. Zolang detectietechnologie niet bijbeent, blijft digitale waakzaamheid de enige echte verdediging – een frustrerende conclusie in een tijd waarin technologie juist zou moeten helpen bij beveiliging, niet bij ondermijning daarvan.

Lees ook: https://techspot.be/pas-op-voor-phishingmails-microsoft-koploper-zelfs-roblox-ingezet/

Leave a Reply

Je e-mailadres zal niet getoond worden. Vereiste velden zijn gemarkeerd met *