Dit is een expertquote van Peter de Kock, Professor of Data Science, Crime & Safety, Tilburg University. Oprichter, Pandora Intelligence.
U kunt dit bericht, of delen hiervan gebruiken op uw kanalen, met vermelding van de naam van de expert en organisatie. Aanleiding: Marion werd opgelicht met stem van zoon: 'Hij liep net op tijd de woonkamer binnen' | RTL Nieuws
Mensen die vrezen dat ze het slachtoffer worden van oplichting met behulp van moderne technologie als deepfakes of ChatGPT, kunnen hier simpele voorzorgsmaatregelen tegen nemen. De politie waarschuwde vorige week voor het eerst over oplichting waarbij de stem van een familielid elektronisch wordt nagebootst door middel van deepfake-techniek.
Omdat fraudeurs vaak werken met een script dat op vooraf ingestelde aannames berust, is voor het doelwit relatief eenvoudig de oplichtingspoging te ontregelen. Dat kan door het verhaal dat de oplichter heeft uitgestippeld, in de war te schoppen.
Je moet het scenario dat de dader heeft uitgedacht, naar jouw hand zetten. Dat kan heel makkelijk door over iets totaal anders te beginnen. Bijvoorbeeld: vraag naar het gebroken pootje van de kat, of begin over die ene tweedehands Peugeot. Als het maar totaal niet in het verhaal past. Omdat je daar in het heetst van de strijd niet altijd aan denkt, kun je dit soort vragen vooraf al verzinnen. Die schrijf je desnoods in een notitie waar je makkelijk bij kunt.
Zeker als een crimineel gebruik maakt van Large Language Models, de techniek achter ChatGPT, dan zal de computer zich geen raad weten met de wedervraag. Bij de vrouw die in RTL Nieuws vertelde over de poging om met vervalste stem van haar zoon geld afhandig te maken, viel de oplichter ook door zo'n onverwachte plotwending door de mand.
Dit is een origineel bericht van Pandora Intelligence
Ga naar alle berichten van deze organisatie.