Amerikaanse

Zo'n 200 gezichtsherkenningssystemen scoorden minder accuraat op niet-blanke gezichten. Zo meldt een Amerikaanse nationale studie. 


Hoe heeft technologie een impact op je business?
Ontvang elke week het zakelijk IT-nieuws rechtstreeks in je inbox!



Het Amerikaanse Nationale Instituut voor Standaard en Technologie (NIST) testte elke algoritme uit op de meest gevraagde taken die het bij gezichtsherkenning uitvoert. De eerste taak is het één-op-één matchen, waarbij een foto van iemand wordt gematcht aan een foto van diezelfde persoon die al in de database zit. De tweede zoekmethode, namelijk ‘één-op-velen”, gaat om het vastleggen of een foto überhaupt wel enige match heeft in de database. Deze methode wordt vaak gebruikt door de politie om verdachten te identificeren in een lopend onderzoek.

Het onderzoek toonde aan dat voor de één-op-één methode er een veel hogere graad van false positives te merken was voor Aziatische en Afro-Amerikaanse gezichten. Met andere woorden; vaker vond het algoritme zogezegd een ‘match’ waar er helemaal geen was. Algoritmen die in Aziatische landen werden ontwikkeld, toonden een veel lagere ratio van false positives tussen Aziatische en Kaukasische gezichten. Amerikaanse algoritmen scoorden dan weer over de hele lijn slecht op het matchen van Aziatische, Afro-Amerikaanse en Indiaanse gezichten. Die laatste groep kreeg de meeste false positives te verwerken. Voor de één-op-velen methode merkte het onderzoek de hoogste graad van false positives op bij Afro-Amerikaanse vrouwen, waardoor de bevolkingsgroep het meeste risico loopt op valselijk beschuldigd te worden.