Iedere uitvoeringsorganisatie die zogenoemde profilerende algoritmes inzet, moet voldoende maatregelen nemen om mensenrechten te beschermen. Dat concludeert het Rathenau Instituut in het rapport Algoritmes afwegen dat vandaag verschijnt. Bij het beschermen van mensenrechten kunnen uitvoeringsorganisaties gebruik maken van burgerpanels, ethische commissies en een normenkader.
Uitvoeringsorganisaties maken al jaren gebruik van algoritmes, instructies die computers kunnen uitvoeren. Veel organisaties zijn op dit moment bezig met het ontwikkelen van een nieuw soort algoritme of denken daarover na. Deze zogenoemde profilerende algoritmes proberen het gedrag van mensen te voorspellen door hen in te delen in groepen. Op die manier willen organisaties bijvoorbeeld te weten komen welke werklozen ze het snelst aan een baan kunnen helpen of welke uitkeringsontvangers ze het meest kansrijk kunnen controleren op fraude. Maar profileren kent ook nadelen. Bij het inzetten ervan lopen organisaties het risico dat ze mensen behandelen op basis van vooroordelen (bias) of zelfs discrimineren.
Het rapport Algoritmes afwegen maakte het Rathenau Instituut op verzoek van het ministerie van Binnenlandse Zaken en Koninkrijksrelaties. Op basis van een verkenning bij drie grote uitvoeringsorganisaties laat het zien op welke manieren uitvoeringsorganisaties die profilering willen gebruiken, de bescherming van mensenrechten kunnen versterken. Zo kunnen ze in een normenkader precies vastleggen wie ervoor verantwoordelijk is dat bepaalde rechten niet worden geschonden. Door het aanstellen van ethische commissies en adviseurs kunnen ze onder hun medewerkers de kennis van, en het gevoel voor, ethische vraagstukken vergroten. Belangrijk is ook dat organisaties burgers goed informeren over de algoritmes die ze gebruiken. Door het instellen van burgerpanels kunnen ze nagaan of die informatie nuttig en begrijpelijk is en of ze alle risico’s hebben meegewogen.
Maatregelen voor het beschermen van mensenrechten bij het inzetten van profilerende algoritmes, zijn niet alleen een verantwoordelijkheid voor de uitvoeringsorganisaties. Het is zaak dat ook de wetgever stappen zet, bijvoorbeeld door de eisen aan de uitlegbaarheid van profilerende systemen te verhelderen. Op die manier is beter na te gaan waarom een algoritme bepaalde burgers selecteert.
‘Dit rapport laat zien dat het belangrijk is dat organisaties die algoritmes gebruiken van begin af aan aandacht hebben voor het beschermen van mensenrechten’, zegt directeur Henk de Jong van het Rathenau Instituut. ‘Het is ook een oproep aan de politiek om de inzet van profilering zorgvuldig en met aandacht voor publieke waarden af te wegen, en het debat daarover te voeren.’
Dit is een origineel bericht van Rathenau Instituut
Ga naar alle berichten van deze organisatie.