'Goed doordacht AI-beleid versnelt juist innovatie'

17 APR 2025 10:18 | CGI Nederland
Dit is een expertquote via ANP Expert Support

Eltjo Poort

Aanleiding:
Is met AI te voorspellen wie een moord gaat plegen? De Britse politie denkt van wel | de Volkskrant

De Britse overheid werkt aan een systeem om met behulp van kunstmatige intelligentie (AI) geweldsmisdrijven te voorspellen, oorspronkelijk onder de naam 'homicide prediction project'. Het systeem zou gevoed worden met de persoonlijke gegevens van bekenden van de politie – inclusief slachtoffers en mensen die nooit veroordeeld zijn. Dat blijkt na een onthulling van de actiegroep Statewatch, die na een beroep het bestaan van het project bekend maakte.

Dit is een zorgelijke ontwikkeling, vooral omdat de EU onlangs in de nieuwe AI Verordening dit soort 'predictive policing' op basis van persoonlijke gegevens expliciet heeft verboden.

Het probleem met het toepassen van AI voor dit soort profilering is dat telkens weer blijkt dat AI-systemen slecht presteren en bovendien leiden tot discriminatie, omdat ze met historische gegevens gevoed worden die onvermijdelijk vooringenomenheid vertonen. Een bekend voorbeeld is het Amerikaanse COMPAS-systeem voor het inschatten van recidiverisico dat systematisch witte verdachten een veel lager risico toekent dan verdachten van kleur.

Deze verhalen over falende AI-projecten, die bovendien in verband gebracht worden met het schenden van grondrechten, doen al veel langer de ronde. Wij merken als AI-consultants dat organisaties daardoor onzeker worden bij de besluitvorming over de toepassing van AI. Steeds meer organisaties voeren daarom Responsible AI-beleid in. Dit zijn risicomanagementraamwerken die helpen om die onzekerheid weg te nemen. Wij zien dat organisaties die dit soort raamwerken hanteren besluitvaardiger zijn met AI-innovaties. Een goed doordacht Responsible AI-beleid is daarom niet innovatieremmend zoals sommigen beweren, maar juist versnellend door het vertrouwen dat het wekt.

Gelukkig wordt in het Verenigd Koninkrijk ook gewerkt aan AI-wetgeving. Je hoopt dat dit gaat helpen om de ethische en maatschappelijke risico's van toepassing van AI bij de Britse politie te beperken, te meer daar eerdere toepassingen van AI daar al behoorlijk in opspraak zijn gekomen. Zie ook de documentaire 'Coded bias' op Netflix.

Eltjo Poort is Expert Responsible AI bij CGI Nederland

Meer binnen de rubriek IT, tech en social media