Dit is een expertquote van Pieter Jansen, Senior Vice President of Cyber Innovation, Darktrace
U kunt dit bericht, of delen hiervan gebruiken op uw kanalen, met vermelding van de naam van de expert en organisatie. Aanleiding: Chatbots Bard, Bing en ChatGPT in Nederland: wat zijn de verschillen? | Tech | NU.nl
Steeds meer Nederlanders gebruiken generatieve AI- en Large Language Model (LLM)-tools zoals ChatGPT en Google Bard op het werk. Dit is niet verwonderlijk, aangezien AI een krachtige tool is die de menselijke creativiteit vergroot en de productiviteit kan verhogen. Wel moeten bedrijven oppassen dat werknemers geen gevoelige informatie invoeren.
De tools zijn zeer toegankelijk en gemakkelijk te gebruiken. En daarin schuilt ook het gevaar dat mensen ze onverantwoord gebruiken. Wanneer ze bijvoorbeeld privacygevoelige informatie van hun werkgever invoeren zonder dat ze zich daarvan bewust zijn, ontstaat het risico op verlies van intellectueel eigendom en datalekken. We hebben de gevaren hiervan al gezien binnen ons eigen klantenbestand. In mei detecteerde en verhinderde onze technologie een upload van meer dan 1 GB aan gegevens naar een generatieve AI-tool vanuit een van onze klantomgevingen.
Als het gaat om het delen van gegevens met een externe organisatie, werken bedrijven normaal gesproken samen met een provider die de geüploade gegevens beschermt. Of ze hosten deze gegevens intern, op servers die ze zelf bezitten of beheren.
ChatGPT is een van die services die nooit echt is ontworpen om volledige gegevensprivacybescherming te bieden. Dit betekent niet dat bedrijven de technologie moeten verbieden, maar werknemers moeten er wel zorgvuldig mee omgaan en ervoor zorgen dat ze geen gevoelige informatie in deze tools invoeren.
Bedrijven moeten intern beleid ontwikkelen en werknemers onderwijzen over de informatie die ze in deze tools kunnen uploaden, aangezien alle informatie die ze invoeren in hun "prompts" (de vragen en instructies die mensen invoeren in ChatGPT) wordt opgeslagen in de datasets van het bedrijf achter de LLM. Met die gegevens traint de LLM zichzelf, waardoor hij steeds slimmer wordt. En als gevolg daarvan kan het die informatie ook gebruiken in output voor andere mensen.
Een andere cruciale stap is dat bedrijven beschikken over de juiste technologieën om activiteiten en verbindingen met generatieve AI en LLM-tools te monitoren en, indien nodig, erop te reageren. Technologie die bedrijven een volledig beeld van hun organisatie biedt en waar generatieve AI in past, zorgt ervoor dat de productiviteit wordt verhoogd door generatieve AI, zonder dat ze zich zorgen hoeven te maken over de potentiële beveiligingsrisico's.
Dit is een origineel bericht van Darktrace
24 DEC 2024
23 DEC 2024