#007 #WWAM #FYInconvenience #Data #Ethiek

Al loog het ritme nog zo snel, de waarheid achterhaalt hem wel! Weet jij eigenlijk wat een algoritme is? Je hoort het woord nagenoeg dagelijks. Maar wat is het eigenlijk en zijn ze nou eng of ok? Er worden momenteel gigantische mogelijkheden toegedicht aan algoritmen. En het experiment krijgt de ruimte. Hier schreef ik eerder al over. En omdat ik maar weinig goed nieuws vond, ben ik er nog wat dieper ingedoken.

Als je de literatuur er op naslaat kom je tot de volgende simpele beschrijving. Een algoritme is een serie instructies gericht op het bereiken van een doel. Bijvoorbeeld de wijze waarop er met een dataset dient te worden omgegaan om een bepaalde uitkomst te krijgen. Daarbij is het essentieel dat er telkens een waar/niet waar keuze kan worden gemaakt. Daar gebruiken de experts het woord binair vaak voor.

De uitkomst van het algoritme kun je verbeteren. Dit leren gebeurt veelal door ‘machine learning’. De serie van ingegeven instructies verbetert zichzelf door bv aan de gebruiker(De beheerder in veel gevallen) een oordeel te vragen over de uitkomst. Doordat het algoritme de punt steeds beter aanslijpt wordt de selectie steeds beter, is het idee. Er is echter een probleem, wie of wat ziet toe op het oordeel van de beheerder over de uitkomsten?

Hoezo is dit een probleem? In de wereld van Human Resources wordt er al fanatiek gebruik gemaakt van deze nieuwe technieken. Die wereld kennen we allemaal, dus een kort voorbeeld. Een recruiter trekt op basis van een aantal zoeklabels de Linkedin database leeg op zoek naar een zware projectleider. Hij zoekt een bepaalde leeftijdscategorie, ervaring, en vooropleiding. Maar in sexe is de organisatie absoluut niet geïnteresseerd. Of eigenlijk wel, liever een vrouw en de recruiter verteld dat het algoritme. De recruiter krijgt 25 profielen voorgesteld, 24 mannen, 1 vrouw, maar die lijkt eigenlijk direct ongeschikt. Wat gaat hier mis of gaat er wel wat mis?

Als ‘bevoordeelde’ blanke man zou ik kunnen zeggen: “Blijkbaar zijn ‘ze’ er niet, passende vrouwen, dus het wordt een man.” Maar klopt die gedachte wel? Want hoe OK is eigenlijk de serie van instructies die ik het algoritme heb gegeven? En dat is het kern van het probleem, BIAS! Oftewel vooroordeel. Er zijn zelfs HR directeuren van grote techbedrijven die beweren dat bovenstaande uitkomst OK is. Het systeem zou niet discrimineren. Maar dat is een grove misvatting. Want het systeem kan niks met niet-binaire context en nuance. Bijvoorbeeld dat zoeken mede op basis van een specifieke vooropleiding, alle vrouwen bij voorbaat kan uitsluiten. Zonder enige intentie neem je mogelijk de vooroordelen die de vooropleiding toepast over in jouw selectiebeleid. Maar wie let daar op!?

“Computer says NO!”

Er zijn helaas al legio voorbeelden van waar het met algoritmen mis is gegaan. In werving en selectie, maar ook bij het toekennen van hypotheken, of content die kinderen online krijgen aangeboden. Het antwoord van leidende experts in Sillicon Valley (Data scientist heten die), als er maar genoeg mis gaat komt er vanzelf regelgeving van de overheid. Ik vind dat antwoord niet goed genoeg. We zullen deze technologische ontwikkelingen versnelt moeten voorzien van ethisch richtinggevende principes. Want de tijd dringt. Daarover hier binnenkort meer.

Nog even terug naar het voorbeeld. Als de organisatie oprecht iets anders wil, een meer gelijke verdeling vrouw/man, dan moet je anders kijken om anders te kunnen kiezen. Dus aan de voorkant heel goed nadenken over welke serie aan instructies je vraagt om de beoogde uitkomst ook daadwerkelijk te krijgen. En je ondertussen af te vragen of wat je vindt, ook echt is wat je zoekt, op een manier die voor ons als samenleving oprecht acceptabel is.