Dit is een expertquote van Joris Krijger, Ethics & AI Officer de Volksbank
U kunt dit bericht, of delen hiervan gebruiken op uw kanalen, met vermelding van de naam van de expert en organisatie. Aanleiding: EU sluit voorlopig akkoord over regels voor kunstmatige intelligentie
EU sluit voorlopig akkoord over regels voor kunstmatige intelligentie. Het uitgangspunt van de ‘AI Act’ is simpel: hoe hoger het risico van de AI-toepassing, hoe meer eisen er aan het systeem zullen worden gesteld. Daar bovenop is er een categorie toepassingen die als ‘onacceptabel’ risico wordt getypeerd en wordt verboden binnen de EU. Denk hierbij aan systemen die kwetsbaarheden van mensen uitbuiten of biometrische identificatie, zoals gezichtsherkenning in de publieke ruimte. Interessant aangaande deze laatste is de uitzonderingsclausule voor politie- en veiligheidsdiensten.
Met deze risico-gebaseerde aanpak omzeilt men grotendeels discussies over technische details en het voorkomt draconische maatregelen voor simpele AI. Daar staat echter tegenover dat we hiermee een heel nieuw maatschappelijk debat gaan krijgen: wanneer is iets hoog risico? En vooral, wie mag dat bepalen en op basis waarvan? Het voorlopige antwoord is een bijlage bij de AI Act waarin hoog risico toepassingen gespecificeerd staan.
De echte uitdaging zit hem in het ethisch toepassen van AI. Dit gaat zonder meer voer voor juristen worden, net als de (erg) brede definitie voor wat nu precies telt als AI: een computersysteem dat, met bepaalde doelen, uit gegeven input, outputs genereert zoals voorspellingen, tekst, aanbevelingen of beslissingen die impact hebben op een fysieke of virtuele omgeving. Leg er eens een Excel berekeningetje naast en dit zou ook zomaar AI kunnen zijn.
De echte uitdaging gaat dus zitten in de toepassing van de wet en vooral de duidelijkheid én de vertaalslag die daar nog voor nodig is. Afgelopen jaren heb ik talloze bedrijven en overheidsorganisaties gesproken. De urgentie om AI verantwoord in te zetten is er absoluut en de eisen uit de AI Act zoals goed risicomanagement, verplicht menselijk toezicht op AI en nu dus ook een mensenrechtentoets, zijn allemaal belangrijke onderdelen van ethisch gebruik.
De hamvraag is of organisaties en bedrijven hun ethische kaders op orde hebben. Mijn voornaamste zorg op dit moment is: hebben we de ‘ethische’ infrastructuur voldoende op orde als overheid en bedrijfsleven? De echt interessante/ingewikkelde vraagstukken gaan namelijk ontstaan als we alles in de praktijk gaan brengen: zo weten we bijvoorbeeld dat bij AI het mensenrecht op non-discriminatie (artikel 21) op gespannen voet kan staan met het mensenrecht op privacy (artikel 8). Dus zelfs met risicomanagement en allerhande toetsen blijven deze vragen onbeantwoord. Hoe gaan organisaties hiermee om? Wie mag die afweging maken? Wie krijgen daar een stem in?
Uit recent onderzoek blijkt dat bijna de helft van de Nederlanders wantrouwend staat tegenover het gebruik van AI bij de belangrijkste instellingen binnen onze samenleving. En de trend is duidelijk: het vertrouwen daalt ieder jaar verder. Wat mij betreft een duidelijke indicatie dat er werk aan de winkel is. Om te voorkomen dat we in situaties komen die ‘lawful but awful’ zijn’, oftewel absoluut onethisch maar wettelijk gezien toelaatbaar, moet er meer gebeuren dan voldoen aan de wet.
Dit is een origineel bericht van De Volksbank
Ga naar alle berichten van deze organisatie.