Dit is een expertquote van Johan de Jong, Vice President Consulting Expert, CGI Nederland.
U kunt dit bericht, of delen hiervan gebruiken op uw kanalen, met vermelding van de naam van de expert en organisatie. Aanleiding: Minister gaat fraudecontroles bij DUO onderzoeken, ‘studenten met migratieachtergrond vaker beschuldigd’ | Binnenland | AD.nl
De Dienst Uitvoering Onderwijs (DUO) maakt al geruime tijd gebruik van een algoritme om fraude met subsidiefinanciering op te sporen. Uit onderzoek blijkt dat studenten met een migratieachtergrond opvallend vaak worden beschuldigd van fraude. Minister Dijkgraaf noemt de bevindingen verontrustend en Kamerleden pleiten voor een algoritmeregister en een extern onderzoek naar het fraudebeleid van DUO.
Effectiever, zonder ongewenste effecten
Op de vraag of de overheid er alles aan moet doen om fraude te voorkomen, zullen de meeste mensen positief antwoorden. Gelijktijdig zal ook iedereen het ermee eens zijn dat discriminatie hierbij moet worden voorkomen. Dit is het dilemma waar de overheid mee worstelt, wanneer zij algoritmes wil inzetten. Het gebruik van algoritmes vereist een evenwicht tussen effectiviteit en het voorkomen van ongewenste effecten zoals discriminatie. Algoritmes zelf veroorzaken echter niet het probleem, maar gebrek aan transparantie, verantwoording en ethisch bewustzijn bij het ontwikkelen en gebruik hiervan vaak wel.
Preventief toetsen en periodiek evalueren
Een algoritmeregister kan de transparantie en verantwoording bij het gebruik van algoritmen bevorderen en onafhankelijk toezicht kan helpen bij het borgen van een eerlijk en rechtvaardig proces. Hiernaast is het essentieel dat de overheid zelf maatregelen neemt om algoritmes veilig te kunnen gebruiken en ongewenste effecten, zoals discriminatie, te voorkomen. Zowel maatregelen tijdens de ontwikkeling als periodieke evaluatie en bijstelling tijdens het gebruik helpen hierbij. Door bij de ontwikkeling te zorgen voor een goede ethische basis en het voorkomen van vooringenomenheid kunnen ongewenste effecten worden voorkomen.
Ook is het van belang bij het trainen en testen van algoritmes een dataset te gebruiken die representatief is voor de diversiteit van de doelgroep. Op deze wijze worden ongewenste effecten, zoals oververtegenwoordiging van bepaalde bevolkingsgroepen in de selectie, preventief voorkomen. Door de werking tijdens het gebruik regelmatig te evalueren worden ongewenste patronen en onevenredige effecten ontdekt en kunnen algoritmes waar nodig worden bijgesteld. Uiteraard is het bij zo’n evaluatie ook van belang de juiste expertise te betrekken.
Maatschappelijk onrust voorkomen
Met deze maatregelen zorgt de overheid voor rechtsgelijkheid in het uitvoeringsproces en wordt voorkomen dat ze achteraf op de vingers worden getikt door de maatschappij en of de politiek. Gelijktijdig blijft de winst in effectiviteit door het gebruik van algoritmes behouden.
Dit is een origineel bericht van CGI Nederland
Ga naar alle berichten van deze organisatie.