Winkelmand

Geen producten in de winkelwagen.

Hoe krijgen we algoritmes zo eerlijk mogelijk?

Zolang algoritmes gevoed worden door vooringenomen data, zullen vooroordelen zich razendsnel verspreiden. De oplossing ligt - nog altijd - in menselijke handen.

Foto: Aleks Dahlberg via Unsplash

Een wit masker. Dat had Joy Buolamwini, PhD-student aan de Amerikaanse universiteit MIT, nodig om te zorgen dat haar gezicht werd herkend door de gezichtsherkenningssoftware voor een project dat ze ontwierp. Haar donkere huidskleur werd door de computer niet opgepikt als zijnde een gezicht, terwijl haar witte collega’s wel herkend werden door de computer.

Het is een van de vele schrijnende voorbeelden die de vooringenomenheid van algoritmes illustreren. Hoewel ze vaak een neutraal imago toebedeeld krijgen, is niets minder waar. Want de data die aan kunstmatige intelligentie ten grondslag ligt, wordt nog altijd gevoed op basis van menselijke ervaringen uit het verleden. En die zijn allesbehalve neutraal.

Zo zijn er de Amerikaanse Red Lined Neighborhoords, waar een gehele buurt op basis van data bestempeld wordt als goed of slecht. Vaak waren dit zwarte wijken, waardoor alle mensen die in die wijk woonden geen hypotheek konden krijgen. ‘Als je dat soort zaken niet meeneemt in het bouwen van datasets en je wel beroept op het verleden, neem je de vooroordelen van vroeger gewoon over’, aldus Sarah Wachter Boettcher, die in haar boek Technically Wrong pleit voor meer bewustzijn dat algoritmes niet als een wondermiddel gezien moet worden.

Onderbuik

De gedachte die daaraan ten grondslag ligt, is dat computers geen vooroordelen zouden hebben. Tijdens een sollicitatiegesprek letten zij niet op namen, huidskleur of andere zaken waarop mensen hun vooroordelen baseren. Punt is alleen dat de oorsprong van computers nog altijd bij mensen ligt – en zij dus onbewust al hun vooroordelen overnemen.

Jeroen Goudsmit en Terence Guiamo, respectievelijk expert op het gebied van algoritmen en hoofd diversiteit & inclusie van PwC beschrijven het als volgt in een ingezonden brief: We zien de wereld niet zoals ze is, maar zoals we haar begrijpen. Ervaringen slijpen de lens waardoor we de wereld zien. Om misverstanden te voorkomen: dat geldt voor iedereen van ons. Zonder dat we ons daarvan altijd bewust zijn, hebben we voorkeuren voor introvert of extravert, zwart of wit, man of vrouw, denken of doen, jong of oud. Deze impliciete vooroordelen zijn sinds jaar en dag een uitdaging en liggen mede ten grondslag aan het feit dat het tot nu toe niet goed lukt om vrouwen of mensen met een migratieachtergrond door te laten stromen in organisaties.

We hebben allemaal een intuïtief idee bij wat we eerlijk vinden. Hier hebben we bij uitstek last van onze blinde vlek voor onze eigen vooroordelen. Ongetwijfeld is dit niet met opzet gedaan; hier is simpelweg niet aan gedacht. Je weet van jezelf immers niet hoe blind je bent. AI brengt dit op een nieuw niveau en vergroot de impact van het vooroordeel. Je automatiseert historisch handelen (het ‘oude’ denken). Hierdoor blijf je met AI vasthouden aan het verleden. Als je niet oppast, heb je een volautomatische onderbuik.

Wekelijks de nieuwsbrief van Management & Leiderschap ontvangen?



Door je in te schrijven ga je akkoord met de algemene en privacyvoorwaarden.

Perspectief

Maar hoe voorkom je deze vooroordelen in algoritmes? Volgens Guiamo en Goudsmit zou een bedrijf er goed aan doen om meerdere perspectieven op te nemen bij het inladen van de data waar algoritmes mee gevuld worden. ‘Je komt er pas achter wat die vooroordelen zijn door met andere mensen in gesprek te gaan. Beter nog: door met mensen in gesprek te gaan die anders zijn dan jij. Organisaties moeten zich kortom blootstellen aan verschillende perspectieven. Om (impliciet) vooringenomen besluitvorming te leren herkennen, te leren voorkomen en te verbeteren. Zodat algoritmes zich op iets beters baseren. Inclusieve organisaties waarin meerdere perspectieven vertegenwoordigd zijn, zullen daarin beter worden dan de organisaties die dat niet of minder zijn.

Ook Wachter-Boettcher pleit voor een dergelijke oplossing. ‘Zorg ervoor dat er in je team van programmeurs ook mensen van andere disciplines betrokken zijn. Op die manier kun je bijvoorbeeld historische fouten eruit halen met iemand die geschiedenis heeft gestudeerd.’