Johan Traa
Aanleiding:
Gartner: Generatieve ai heeft impact op cybersecurity in 2025 - Computable.nl
De opkomst van artificiële intelligentie (AI) heeft niet alleen de mogelijkheden voor bedrijven en consumenten vergroot, maar heeft ook een nieuw tijdperk ingeluid in de wereld van cybersecurity. Hackersorganisaties, die een hoge mate van professionalisering hebben doorgemaakt, zetten AI in om hun activiteiten te verbeteren. Denk hierbij aan AI-modellen voor betere codering van malware en ransomware, waardoor de kwaliteit van kwaadaardige software toeneemt. Ook de “customer service”, die de onderhandelingen met slachtoffers voor zijn rekening neemt, kan door AI worden overgenomen en slimmer opereren. Het nieuwste AI voice model Sesame kan zo goed de menselijke stem nabootsen, inclusief huh’s en levensechte ademhaling, dat je niet meer door hebt dat je met AI-bot praat.
Misleiding
Ook phishingmails worden steeds geavanceerder dankzij AI. Niet alleen worden spelfouten geminimaliseerd met tools zoals ChatGTP, maar AI stelt hackers ook in staat om phishingmails te personaliseren en beter in te spelen op de vatbaarheid van slachtoffers door gebruik te maken van open source intelligence (OSINT). Een alarmerende ontwikkeling is de mogelijkheid om stemmen na te bootsen, waardoor telefoontjes van zogenaamde familieleden of zelfs de baas levensecht klinken met het AI voice model van Sesame en slachtoffers makkelijker te misleiden zijn.
Prompt injection aanval
Een andere dreiging die voortkomt uit de combinatie van AI en kwaadwillende intenties is prompt injection. De prompt injection-aanval maakt gebruik van het gegeven dat sommige AI-modellen niet sterk genoeg beschermd zijn tegen instructies van buitenaf, waardoor ze de oorspronkelijke restricties kunnen negeren. Dit is vergelijkbaar met de vroegere SQL-injecties en vormt een nieuw risico waar bedrijven zich bewust van moeten zijn.
Patronen herkennen
Om niet achterop te raken in deze wapenwedloop, moeten ook cybersecurity-professionals AI omarmen. AI kan bijvoorbeeld ingezet worden voor het detecteren van verdachte activiteiten en het monitoren van datastromen. In plaats van generieke meldingen over datagebruik, kan AI patronen herkennen en afwijkend gedrag signaleren, zelfs bij medewerkers die regelmatig grote hoeveelheden data verwerken.
Continu leren
De belangrijkste tegenmaatregelen in deze context zijn bewustwording en het continu monitoren van nieuwe hackersmethoden. Bedrijven moeten het onderwerp cybersecurity en AI op de agenda zetten en verantwoordelijkheden toekennen om de strijd tegen hackersorganisaties aan te gaan. Het trainen en opleiden van medewerkers is cruciaal, evenals het accepteren van de noodzaak tot mens- en AI-samenwerking. Omdat AI zich voortdurend ontwikkelt, is een cultuur van continu leren essentieel om de steeds veranderende en geavanceerdere dreigingen het hoofd te bieden.
Dit is een origineel bericht van Boer & Croon
Ga naar alle berichten van deze organisatie.