Platformisering, algoritmisering en sociale bescherming
Einde inhoudsopgave
Platformisering, algoritmisering en sociale bescherming (MSR nr. 78) 2021/1.5.1:1.5.1 Risico’s en kansen bij algoritmisch aangestuurde personeelsselectie
Platformisering, algoritmisering en sociale bescherming (MSR nr. 78) 2021/1.5.1
1.5.1 Risico’s en kansen bij algoritmisch aangestuurde personeelsselectie
Documentgegevens:
Mijke Houwerzijl, Saskia Montebovi & Nuna Zekić, datum 01-05-2021
- Datum
01-05-2021
- Auteur
Mijke Houwerzijl, Saskia Montebovi & Nuna Zekić
- JCDI
JCDI:ADS288396:1
- Vakgebied(en)
Arbeidsrecht / Algemeen
Sociale zekerheid algemeen (V)
Deze functie is alleen te gebruiken als je bent ingelogd.
Of de platforms nu als werkgever, opdrachtgever of bemiddelaar zijn te kwalificeren, de meeste van hen werken met ‘slimme algoritmes’, bijvoorbeeld om het werk te verdelen of de prijs van een dienst te bepalen. Voor de gebruikers (zoals platformwerkers, consumenten en andere gebruikers en afnemers) is het belangrijk dat het gebruik van deze machine learning algoritmes op een passende wijze is gereguleerd. Willemijn Roozendaal en Marko Jovović gaan in hoofdstuk 8 na aan welke normen uit het gelijkebehandelingsrecht en gegevensbeschermingsrecht platformondernemingen én traditionele werkgevers zich moeten houden wanneer ze dergelijke algoritmes willen gebruiken bij beslissingen van grote betekenis, zoals bij de selectie van personeel.
Er blijken zich belangrijke problemen te kunnen voordoen. De keuzes die door machine learning (ML) algoritmes worden gemaakt, zijn vaak complex en daardoor moeilijk uit te leggen. Het gegevensverwerkingsrecht vereist echter in beginsel dat voorafgaand aan de bewerking wordt aangetoond welke van de daarvoor gebruikte persoonsgegevens relevant zijn voor de selectieprocedure en waarom. Ook volgens het gelijkebehandelingsrecht moet – bij een vermoeden van discriminatie – worden gerechtvaardigd wat de selectiecriteria zijn en hoe deze zich tot elkaar verhouden. In het gelijkebehandelingsrecht en het gegevensverwerkingsrecht worden voorts variabelen aangewezen, die in het geheel niet gebruikt mogen worden. Daarenboven stelt het gegevensverwerkingsrecht de eis dat de hele procedure en de uitkomst ervan, inclusief het gewicht van de gebruikte variabelen, op transparante en begrijpelijke wijze moet kunnen worden uitgelegd aan kandidaten.
De auteurs behandelen enerzijds deze belangrijke drempels voor de inzet van algoritmes, maar zij onderzoeken ook welke meerwaarde algoritmes zouden kunnen hebben en welke maatregelen genomen moeten worden om de meerwaarde te kunnen benutten. Die meerwaarde zien Roozendaal en Jovović met name als machine learning algoritmes zo (kunnen) worden ingezet dat ze discriminatie bij selectie bestrijden, bijvoorbeeld door effectief te zoeken naar selectiecriteria die zowel goede kandidaten opleveren, als een evenredigere spreiding garanderen over verschillende groepen. Op deze wijze zou de algoritmisering van personeelsselectie in potentie kunnen bijdragen aan een inclusieve arbeidsmarkt. Dit zal echter robuuste veranderingen in het gelijkebehandelingsrecht en het gegevensbeschermingsrecht vergen, aangezien deze twee rechtsgebieden momenteel nog aanzienlijke obstakels opwerpen voor een dergelijke selectieprocedure.