Reinier van Leuken
Aanleiding:
Privacywaakhond: pas op met gebruik AI-chatbots, ging mis bij huisarts
De voorbeelden op basis waarvan de Autoriteit Persoonsgegevens waarschuwt voor het gebruik van chatbots, laten precies zien waar het probleem zit als het gaat om AI. Onbewustzijn, een gevoel van 'dat overkomt mij niet' of perceptie van controle. We zien het natuurlijk ook met social media. Zet niet alles zomaar online. En praat dus ook niet met een publieke en open chatbot over zaken die je ook niet op social media zou zetten. We moeten dan ook niet waarschuwen voor het gebruik van chatbots, maar voor het gebruik van persoonlijke gegevens.
We kunnen er niet omheen dat mensen chatbots gaan gebruiken. In een eerder onderzoek van ons onder 1.000 Nederlanders zegt 43 procent van de respondenten AI op het werk zonder toestemming te gebruiken. Dat is een enorm hoog percentage, maar het laat ook zien hoe graag mensen het zichzelf met behulp van AI makkelijk willen maken.
Richtlijnen, kaders en training zijn cruciaal en voor bedrijven geldt dat het belangrijk is te investeren in diensten waarmee ze beveiligings- en privacyafspraken kunnen maken. Gebruik een veilige, door het bedrijf goedgekeurde chatbot die zorg draagt voor bescherming van gegevens, bijvoorbeeld door gevoelige data te maskeren voordat deze gebruikt wordt door AI.
Dit is een origineel bericht van Salesforce
Ga naar alle berichten van deze organisatie.