Her er Danmarks fem bedste CIO’er lige nu:Se de fem nominerede til prisen som Årets CIO 2024

Artikel top billede

Kæmpe øretæve til algoritmer bag ansigtsgenkendelse: Mange systemer fejlidentificerer farvede mennesker - især farvede kvinder

En splinterny stor amerikansk undersøgelse af algoritmer fra hele verden til ansigtsgendelse er en syngende lussing til teknologien. Mange af systemerne er langt bedre til at identificere hvide mennesker end farvede og asiater.

Ansigtsgenkendelse er efterhånden totalt mainstream.

Teknologien findes på snart sagt enhver nyere smartphone, og Ifølge analysehuset Gartner er teknologien nu så moden, at betaling ved hjælp af ansigtsgenkendelse bliver en af de vigtigste teknologiske tendenser i 2020.

Kina er first mover, men tendensen vil brede sig i resten af verden på ryggen af Apple Face ID og Apple Pay, mener Gartner.

Alvorlige problemer

Nu viser en splinterny undersøgelse foretaget af det amerikanske standardiseringsinstitut NIST, at der er alvorlige problemer med mange af algoritmerne bag teknologien, som viser sig at være langt bedre til at identificere hvide mennesker end farvede og asiater. Det skriver Reuters.

Fejllæsningen af ansigter, der sidder på farvede eller asiater blev at de testede systemer fejllæst mellem 10 og 100 gange oftere end hvide i en såkaldt one-to-one-databasesøgning.

Og der er tale om en meget omfattende undersøgelse. NIST testede 189 algoritmer fra 99 virksomheder. Dog ikke fra eksempelvis Amazon, som ikke afleverede nogle algoritmer til undersøgelse.

Reuters skriver, at algoritmer fra eksempelvis det kinesiske startup-firma inden for kunstig intelligens SenseTime, der er værdisat til 7,5 milliarder dollars - næsten 51 milliarder kroner - havde en høj fejlrate på alle søgninger.

En ud af ti gange resulterede det i en falsk positiv, når softwaren blev brugt til at undersøge foto af somaliske mænd.

Algoritmer fra Microsoft producerede nogle gange næsten ti gange flere falske positive for farvede kvinder end farvede mænd under såkaldte en-til-mange-test.

Til gengæld var der kun få fejl, når softwaren undersøgte foto af farvede og hvide mænd.

Resultaterne af undersøgelsen fik formanden for Homeland Security-komitteen i Repræsentanternes Hus, Benni Thompson, til at sige, at resultaterne er chokerende.

Bias er værre, end han havde frygtet, og det på et tidspunkt, hvor de amerikanske toldmyndigheder er ved at indføre ansigtsgenkendelse ved grænserne. Den beslutning må genovervejes, mener han.