Peter de Kock
Aanleiding:
Discriminatie bij fraudejacht studiebeurzen blijkt nog sterker dan gedacht | Trouw
Afgelopen week publiceerde Trouw een artikel met als ondertitel “Het algoritme waarmee Duo onterecht onderscheid maakte tussen studenten blijkt nog sterker te discrimineren dan al bekend was”. Dit is niet alleen een onzinnige stelling, het is feitelijk gezien ook onjuist. Maar het is een aantrekkelijke stelling omdat het ons weerhoudt te kijken naar het menselijke proces van discriminatie.
Onzinnig
De letterlijke betekenis van het woord discriminatie is ‘het maken van onderscheid’. En dat is precies wat een algoritme doet. Het classificeert data op basis van verwantschap in kenmerken. En het doet dat veel beter en sneller dan dat mensen dat kunnen. Maar als je uitgaat van de letterlijke betekenis van het woord discriminatie, is de stelling dat het gebruik van voorspellende algoritmes “onbedoeld discrimineren”, onzinnig. Je zou dan moeten stellen “Algoritmes discrimineren, daar zijn ze voor gemaakt”.
Onjuist
In maatschappelijke context staat discriminatie voor iets heel anders. Daar gaat het over onrechtmatig onderscheid maken (op basis van zaken als nationaliteit, geslacht, religie, overtuiging, geaardheid etc.). En dat is nou precies wat een algoritme nìet doet. Een algoritme produceert bij dezelfde input steeds dezelfde output. Het is amoreel en kan dus per definitie geen onrechtmatig onderscheid maken. Populair gezegd; een algoritme is niet onderhevig aan een nacht weinig slaap of aan een vervelende ervaring met de benedenbuurman. Mensen zijn dat wel.
Makkelijk
Het is makkelijk om algoritmes af te wijzen om iets dat we er zelf instoppen. Maar de wijzende vinger moeten op onszelf gericht worden. Een algoritme wordt gemaakt door mensen en leert - in sommige gevallen - aan de hand van data. En daar ligt het probleem. Zowel mensen als data kunnen op veel manieren ‘biased’ zijn en discriminatie wordt ofwel ingeprogrammeerd door mensen, ofwel overgenomen uit onzuivere data.
Met de stelling dat algoritmes onbedoeld discrimineren bewegen we weg van de pijn. De pijn dat wij zélf nog steeds onderscheid maken op basis van huidskleur van anderen, hun etniciteit, geslacht, religie, overtuiging, geaardheid en op basis van nog veel meer.
Het grote verschil tussen mensen en algoritmes is dat discriminatie in het menselijk proces erg moeilijk te ontdekken en te corrigeren is, zo leert ons de geschiedenis. Discriminatie in data daarentegen, blijkt relatief eenvoudig te ontdekken, en bovendien een heel stuk makkelijker te corrigeren te zijn. Uitgaande van de maatschappelijke betekenis van het woord discriminatie, is de stelling dat algoritmes kunnen bijdragen aan een samenleving waarin iedereen in gelijke gevallen, gelijk wordt behandeld, veel beter te verdedigen.
Dit is een origineel bericht van Pandora Intelligence
Ga naar alle berichten van deze organisatie.