Dit is een expertquote van Pieter Jansen, Senior Vice President of Cyber Innovation, Darktrace.
U kunt dit bericht, of delen hiervan gebruiken op uw kanalen, met vermelding van de naam van de expert en organisatie. Aanleiding: ChatGPT wordt waarschijnlijk al gebruikt bij nationale cyberaanvallen | Executive People
Het gebruik van generatieve AI wordt door de opkomst van tools zoals ChatGPT steeds gangbaarder. De angst bij cybersecurityprofessionals is groot dat dit leidt tot meer phishingaanvallen. Dit blijkt niet zo te zijn, zo blijkt uit eigen onderzoek van Darktrace. Wel zien we dat de complexiteit van phishing-e-mails toeneemt, wat kan betekenen dat cybercriminelen zich meer richten op Business Email Compromise-aanvallen en minder op traditionele phishingaanvallen waarbij de focus ligt op het klikken op kwaadwaardige links of malware.
Hoewel het aantal aanvallen via e-mail grotendeels gelijk is gebleven sinds de lancering van ChatGPT, is het aantal phishing-e-mails waarbij het slachtoffer wordt overgehaald om op een kwaadaardige link te klikken, gedaald van 22 procent naar 14 procent. Tegelijkertijd is de gemiddelde taalkundige complexiteit van de phishing-e-mails met 17 procent toegenomen.
Hoewel deze correlatie natuurlijk geen oorzakelijk verband betekent, zou je kunnen stellen dat ChatGPT cybercriminelen in staat stelt hun focus te verleggen. In plaats van e-mail-aanvallen te gebruiken met schadelijke links of malware, zien criminelen een hogere return-on-investment in het bedenken van geraffineerde social engineering-aanvallen: Business Email Compromise (BEC). Hierbij maken cybercriminelen misbruik van het vertrouwen van de ontvanger van de e-mail die wordt verzocht directe actie te ondernemen. Bijvoorbeeld door er bij een HR-medewerker op aan te dringen de salarisgegevens voor de CEO te wijzigen in de bankrekening van een door de aanvaller gecontroleerde money mules. Dit zijn mensen die worden geronseld om hun bankgegevens te laten misbruiken door criminelen.
Een cybercrimineel kan in enkele minuten tijd informatie over een potentieel slachtoffer uit zijn of haar sociale media-accounts schrapen en ChatGPT vragen een e-mail te maken op basis van die informatie. Dit stelt een cybercrimineel in staat om binnen enkele seconden een geloofwaardige, goed geschreven en gecontextualiseerde spearphishing-e-mail kunnen versturen. Dit soort e-mails zijn hierdoor door mensen nog moeilijker te herkennen.
Het is onvermijdelijk dat cybercriminelen generatieve AI blijven gebruiken voor hun eigen gewin. Ironisch gezien is door AI aangedreven cybersecurity nodig om hypergepersonaliseerde, door AI aangestuurde aanvallen te stoppen. Organisaties kunnen zich het beste beschermen door zelflerende AI te gebruiken. Deze vorm van AI baseert zijn vermogen om subtiele aanvallen te identificeren en te beheersen door het opbouwen van grondige kennis van gebruikers en apparaten binnen de organisatie die het beschermt.
Dit is een origineel bericht van Darktrace