Dit is een expertquote van Peter de Kock, oprichter, Pandora Intelligence
U kunt dit bericht, of delen hiervan gebruiken op uw kanalen, met vermelding van de naam van de expert en organisatie. Aanleiding: Regering bereidt verbod voor op gebruik AI-software door ambtenaren
Gisteren werd bekend dat de demissionaire staatssecretaris van Digitalisering aan een concept voorstel werkt om ambtenaren te verbieden generatieve AI te gebruiken. Het lijkt logisch; een verbod voor ambtenaren. Niemand wil immers dat rapporten met gevoelige data een organisatie verlaten met de vraag “maak hier een samenvatting van”.
Generatieve AI is een vorm van kunstmatige intelligentie die patronen ontdekt in grote hoeveelheden trainingsgegevens en op basis daarvan iets nieuws kan genereren met vergelijkbare kenmerken als de trainingsdata. Een deel van de trainingsdata bestaat uit boeken en krantenartikelen waarop auteursrecht berust en vanuit de rechtspraak is er nog geen expliciet oordeel of dat wel mag. Dat is één van de bezwaren die in het concept voorstel van de staatssecretaris wordt aangehaald.
Een juridisch sluitend antwoord op de vraag in hoeverre een AI-toepassing auteursrecht schendt, en of algoritmes als ‘auteur’ aangemerkt kunnen worden, laat waarschijnlijk nog jaren op zich wachten. Een verbod op het gebruik van AI-software door ambtenaren totdat een onherroepelijk oordeel is gevormd, lijkt niet realistisch en zeker niet toekomstbestendig. Het echte bezwaar is namelijk dat wetgeving steeds verder achter raakt op technische ontwikkelingen.
Ook kan een generatieve AI-toepassing zeer gevoelige informatie afleiden uit de interactie met de gebruiker, schrijft de Volkskrant en dat is zondermeer waar. Dit privacy argument geldt echter niet alleen voor AI-toepassingen. Ook vragen die aan zoekmachines worden gesteld, zijn identificerend (zoek maar eens op “dog that urinates on everything”). Bovendien, alles in dit bezwaar wijst op een ongemakkelijke situatie.
Nagenoeg elk ministerie, politieke partij, dagblad of overheidsinstelling, stuurt hun bezoekers naar Facebook, X, Instagram of Whatsapp. Stuk voor stuk commerciële bedrijven die “zeer gevoelige informatie kunnen afleiden uit de interactie met de gebruiker”.
Het laatste argument dat in de Volkskrant wordt genoemd, is dat programma’s als ChatGPT “kunnen worden gebruikt om een besluit over een persoon te nemen”. Dat bezwaar lijkt nog het minst steekhoudend. Ook dobbelstenen kunnen worden gebruikt om een besluit over een persoon te nemen. Waar het om gaat is dat technologische ontwikkelingen elkaar razendsnel opvolgen.
We moeten mensen (en niet alleen ambtenaren) bewust maken van de voor- en nadelen die dat heeft maar ook van de verantwoordelijkheid die dat met zich meebrengt. Dat vraagt om een duidelijke overheidsvisie op AI, en op een zich constant ontwikkelend opleidingsprogramma. Gelukkig is dat ook een onderdeel van het concept voorstel.
Dit is een origineel bericht van Pandora Intelligence
Ga naar alle berichten van deze organisatie.