Winkelmand

Geen producten in de winkelwagen.

Deze vrouw strijdt tegen vooroordelen in algoritmes

Van gender tot etniciteit: algoritmes zitten vol vooroordelen. PhD-student Joy Buolamwini strijdt voor inclusievere databases. 'De sleutel van de oplossing ligt bij mensen.'

Van gender tot etniciteit: algoritmes zitten vol vooroordelen. PhD-student Joy Boulamwini strijdt voor inclusievere databases. 'De sleutel van de oplossing ligt bij mensen.'
Foto: TED

Een wit masker. Dat had Joy Buolamwini, PhD-student aan de Amerikaanse universiteit MIT, nodig om te zorgen dat haar gezicht werd herkend door de gezichtsherkenningssoftware voor een project dat ze ontwierp. Haar donkere huidskleur werd door de computer niet opgepikt als zijnde een gezicht, terwijl haar witte collega’s wel herkend werden door de computer.

Het was niet de eerste keer dat Buolamwini te maken kreeg met vooroordelen in machine learning, zo vertelt ze in haar TED-talk, die inmiddels meer dan een miljoen keer bekeken is. ‘Daarvoor probeerde ik een robot zo te programmeren dat je kiekeboe met hem kan spelen. Maar dat spel, waarbij je je handen voor je gezicht houdt, die weghaalt en kiekeboe zegt, gaat niet met een robot die je gezicht niet herkent.’

Dat algoritmes bevooroordeeld zijn, mag bijna geen geheim meer heten. In haar boek Technically Wrong geeft de Amerikaanse Sarah Wachter-Boettcher talloze voorbeelden van hoe het mis kan gaan. Een vrouw die met haar pasje de kleedkamer van de sportschool niet inkomt, omdat de computer haar als man heeft gekwalificeerd. De term ‘doctor’ als academische titel maakte haar volgens de computer een man. Of de Amerikaan die van Facebook een ‘leuk’ jaaroverzicht kreeg, met foto’s van zijn dochtertje dat dat jaar overleed.

Politie

Onderwerpen die nog als ongemakkelijk kunnen worden afgedaan, maar Buolamwini betoogt dat het onschuldige karakter snel verdwijnt. Wat voor verzekering jij krijgt, op welke universiteit je wordt toegelaten: kunstmatige intelligentie krijgt daar een steeds grotere vinger in de pap. ‘De politie gebruikt gezichtsherkenning om mensen op te sporen. Op het moment dat je opgepakt wordt op basis van een algoritme met een vooroordeel, hoeft dat dus niet automatisch te betekenen dat je iets gedaan hebt.’ De computer heeft je al veroordeeld.

Hoe kan dit gebeuren? Volgens Buolamwini worden dergelijke databases eerst gevuld met foto’s van gezichten. Mensen die zich vrijwillig aanmelden, helpen de computer om een gezicht te herkennen. ‘Maar als al die mensen wit zijn, hoe moet een computer dan weten dat er ook andere huidskleuren bestaan?’

Maar wat te doen? Buolamwini werkt aan een oplossing. Want waar Buolamwini eerst nog dacht dat het een probleem was dat iemand anders wel zou oplossen, trekt ze nu zelf ten strijde. ‘Want hoe onmogelijk het ook lijkt, kunstmatige intelligentie wordt in het beginsel gemaakt door mensen. En dat zijn dus ook degenen die dat kunnen veranderen.’

Dagelijks de nieuwsbrief van Management & Leiderschap ontvangen?



Door je in te schrijven ga je akkoord met de algemene en privacyvoorwaarden.

Inclusieve algoritmes

Ze pleit voor inclusievere algoritmes. ‘Die maak je door een diverser team die ze samenstelt. Die mensen kunnen elkaar ook controleren op eventuele fouten of aannames.’ Ook stelt Buolamwini dat het belangrijk is om na te denken waarvoor je een code ontwikkelt. ‘Aan het begin waren algoritmes er vooral om het leven makkelijker te maken. Nu wordt het voor steeds meer zaken ingezet die belangrijker zijn. Daar moet de controle strenger op zijn.’

En die huidige algoritmes? Buolamwini begon het project Poem of Code, een website waar mensen gevonden vooroordelen kunnen melden, maar zich bijvoorbeeld ook kunnen opgeven als vrijwilliger voor het vullen van databanken. Haar strijd tegen algoritmes met vooroordelen leverde haar een plaats op in de MIT 35 onder de 35. ‘Op deze manier werken we aan een technologische toekomst die van ons allemaal is.’