Dit is een expertquote van Ad Buckens, Consulting Expert Cybersecurity, CGI.
U kunt dit bericht, of delen hiervan gebruiken op uw kanalen, met vermelding van de naam van de expert en organisatie. Aanleiding: Microsoft's ‘Security Copilot’ Sics ChatGPT on Security Breaches | WIRED
De laatste tijd gaat het overal over de kansen en risico's van ChatGPT en AI. Microsoft komt nu voor verdedigers van netwerken met '365 Copilot', waarin ze OpenAI's ChatGPT-4 integreren in hun securityoplossing. Ervaringen moeten nog gaan leren hoe effectief de verdediging zal gaan worden, want de technologie staat nog in de kinderschoenen. Het toekomstbeeld voor verdedigers is echter weer een stukje rooskleuriger geworden.
365 Copilot biedt geïntegreerde ChatGPT-4-functionaliteit, waardoor sneller zoeken naar kwetsbaarheden in het organisatienetwerk eenvoudiger wordt. Ook kan bijvoorbeeld kwaadwaardige code uit elkaar worden gehaald door de tooling. Veelbelovend maar we weten inmiddels dat de tooling nog veel te leren heeft en niet alles foutloos doet.
Securityteams moeten hier scherp blijven op 'false positives' veroorzaakt door de verrijking door de AI-engines. Microsoft onderkent dit zelf overigens ook in hun toelichting op het product.
Wel is het zo dat AI-toepassingen enorm helpen bij het verrijken van informatie, waardoor een minder groot deel van de expertkennis wordt opgeslokt voor analyse. Dit houdt de handen van verdedigers van organisatienetwerken vrij voor de momenten waar het ertoe doet. Aandachtspunt blijft privacy bij het gebruik van toepassingen als Copilot.
Hoewel Microsoft aangeeft dat slechts data uit de eigen organisatie wordt gebruikt, neemt de kracht van deze tools toe naarmate de dataset groter wordt. De schreeuw om meer inzicht zet privacy, ook bij de inzet van deze tools, onder druk.
Dit is een origineel bericht van CGI Nederland
Ga naar alle berichten van deze organisatie.