Als je de afgelopen jaren een nieuwe baan zocht, dan hoefde je voor jouw eerste gesprek waarschijnlijk niet eens je eigen werkkamer te verlaten. Via online video-interviews en opdrachten proberen werkgevers steeds vaker te bepalen of jij een geschikte werknemer bent. En misschien zat er niet eens een persoon aan de andere kant van de lijn om jouw kwaliteiten te beoordelen.

Het viel de Duitse publieke radiozender Bayerischer Rundfunk (BR) vorig jaar op dat bedrijven steeds vaker kunstmatige intelligentie inzetten tijdens sollicitaties. Een videogesprek met je mogelijke werkgever wordt dan niet langer door een mens beoordeeld, maar software analyseert je gezicht en omgeving. Op basis van die analyse krijg je bepaalde karaktereigenschappen toegedicht.

Verslaggevers van BR voerden een experiment uit met een acteur die met telkens een iets ander uiterlijk hetzelfde gesprek via zulke software voert. Hoewel de inhoud en toon van het antwoord exact hetzelfde is, wordt het uiterlijk van die kandidaat ineens anders beoordeeld. Draag je een bril? Dan ben je minder plichtsgetrouw. Heb je een sjaal om je hoofd? Dan heb je ineens een extravert karakter.

Het beoordelen van karaktereigenschappen op basis van uiterlijk wordt door critici ook wel ‘digital eugenics’ genoemd, of digitaal schedelmeten. Sollicitanten voelen zich oneerlijk behandeld als zij op basis van hun uiterlijk worden beoordeeld. Waarom kijkt hun potentiële werkgever niet simpelweg naar hun kwaliteiten of ervaring?

Oproep

Moest je tijdens een sollicitatie een spelletje spelen, is jouw CV enkel beoordeeld door een algoritme, of is jouw video-interview geanalyseerd door software? En heb je het idee dat je toen oneerlijk bent beoordeeld? Dan zijn we benieuwd naar jouw verhaal.

Wordt solliciteren wel eerlijker?

Sollicitaties beoordelen via video-analyses, kunstmatige intelligentie of een spelletje is in de Verenigde Staten inmiddels behoorlijk ingeburgerd. Het argument om zulke middelen in te zetten is uiteraard efficiëntie: via zulke software kun je duizenden personen tegelijk laten solliciteren. Maar het zou ook vooroordelen meetbaar kunnen maken, waarmee je vervolgens bewust rekening kunt houden tijdens je uiteindelijke afweging. Dat is in ieder geval de theorie.

De praktijk leidt echter tot situaties waarin bepaalde groepen mensen die al worden benadeeld, nu wederom onderop de stapel terechtkomen. Zo kunnen personen met fysieke beperkingen niet altijd de games spelen die ze krijgen voorgeschoteld, blijkt uit de podcastserie In Machines We Trust (seizoen 2, aflevering 6 tot en met 9) van tijdschrift MIT Technology Review.

Uit die podcastserie blijkt ook dat mensen oneerlijk voordeel proberen te krijgen door trainingen te volgen. Hoe eerlijk is een sollicitatie als iemand voorkennis heeft van de vragen, en wat daarop het beste antwoord is? Ook testten de onderzoekers meerdere sollicitatiesoftware. Een van deze tools gaf een geïnterviewde een hoge score in zijn taalbeheersing voor Engels. Opmerkelijk, aangezien het interview volledig in het Duits werd afgenomen.

Amerikaanse overheidsorganisaties maken eveneens gebruik van deze tools. Niet zelden gaat het om softwarebedrijven die op zijn minst twijfelachtige methoden gebruiken om kandidaten te beoordelen, concludeert The Markup.

Ook in Nederland

In ons eigen land krijgt deze manier van solliciteren ook voeten aan de grond. Intermediair schreef in 2017 al over 'de computer als filter voor sollicitanten', en zag vorig jaar dat die ontwikkeling zich verder heeft doorgezet. De Volkskrant schreef onlangs nog over een Nederlands bedrijf genaamd Equalture, dat claimt dat het een eerlijker sollicitatieprocedure aanbiedt dan traditionele methoden. Het bedrijf heeft inmiddels 280 klanten, waaronder Holland Casino en PostNL. Enkele kleine Nederlandse gemeenten schijnen interesse te hebben getoond in de software.

Juist op politiek vlak ligt nogal wat gevoeligheid rondom algoritmen. Duizenden Nederlanders zijn afgelopen jaren op zwarte lijsten terechtgekomen door automatische keuzeprocessen. Door hun data werden zij – zonder enige menselijke check of wederhoor – als verdacht aangemerkt.

Begin april stemde de Tweede Kamer in met een motie van GroenLinks om elk algoritme dat door de overheid wordt ingezet, moet voldoen aan een mensenrechtentoets. En dat is geen overbodige luxe.

De Rekenkamer onderzocht afgelopen jaar of algoritmen bij verschillende overheidsdiensten voldoen aan basisvereisten. Het blijkt echter dat slecht 3 van de 9 onderzochte algoritmen als voldoende worden beoordeeld. "Bij 6 andere bestaan uiteenlopende risico's, variërend van gebrekkige controle op prestaties of effecten, tot vooringenomenheid, datalek of ongeautoriseerde toegang."

Makers

Samen komen we verder

Ons onderzoek begint bij jou. Heb jij een tip of ervaring die je met ons wil delen? Laat het ons weten!

Heb jij een tip of ervaring die je met ons wil delen? Laat het ons weten!

Documentatie uploaden
CAPTCHA
Deze vraag is om te controleren dat u een mens bent, om geautomatiseerde invoer (spam) te voorkomen.

Bedankt, je tip is verstuurd

Wat gebeurt er nu met mijn tip?

Bedankt dat je de tijd hebt genomen om het tipformulier in te vullen. Je tip is verstuurd naar de redacteur van het onderzoek. Wij publiceren niets met naam en toenaam zonder contact met je op te nemen. Soms krijgen we zoveel tips binnen dat het ons helaas niet lukt om iedereen een persoonlijke reactie te sturen. We vragen je begrip hiervoor. 

Benieuwd naar de impact van eerdere tips?

Van kamervragen tot petities en maatschappelijk debat: samen met jou pakken we systemisch falen en onrecht aan. Benieuwd naar de impact van eerdere onderzoeken en ingezonden tips? Bekijk dan nu ons track record.