Mange ansigtsgenkendelsessystemer er partiske, siger U.S.-undersøgelse

 Mange ansigtsgenkendelsessystemer er partiske, siger U.S.-undersøgelse


Størstedelen af ​​de kommercielle ansigtsgenkendelsessystemer udviser bias, ifølge en undersøgelse fra et føderalt agentur, der blev frigivet på torsdag, hvilket understreger spørgsmål om en teknologi, der i stigende grad anvendes af politiafdelinger og føderale agenturer til at identificere mistænkte kriminelle.

Systemerne falsk identificeret afroamerikansk og asiatiske ansigter 10 gange til 100 gange mere end kaukasiske ansigter, rapporterede National Institute of Standards and Technology torsdag. Blandt en database med fotos, der blev brugt af retshåndhævelsesbureauer i De Forenede Stater, kom de største fejlrater ved at identificere indianere, fandt undersøgelsen.

Teknologien havde også større problemer med at identificere kvinder end mænd. Og den identificerede falske ældre voksne op til 10 gange mere end middelaldrende voksne.

Den nye rapport kommer på et tidspunkt med stigende bekymring fra lovgivere og borgerrettighedsgrupper over spredningen af ​​ansigtsgenkendelse. Fortalere ser det som et vigtigt redskab til at fange kriminelle og spore terrorister. Tekniske virksomheder markedsfører det som en bekvemmelighed, der kan bruges til at hjælpe med at identificere folk på fotos eller i stedet for en adgangskode til at låse smartphones op.

Civilretlige eksperter advarer imidlertid om, at teknologien – som kan bruges til at spore mennesker på afstand uden deres viden – har potentialet til at føre til allestedsnærværende overvågning, nedkøling af bevægelses- og ytringsfrihed. I år forbød San Francisco, Oakland og Berkeley i Californien og Massachusetts-samfundene Somerville og Brookline regeringens brug af teknologien.

”Én falske kamp kan føre til ubesvarede flyvninger, lange forhør, placeringer på overvågningslister, anspændte politimøder, falske arrestationer eller værre,” sagde Jay Stanley, en politikanalytiker ved American Civil Liberties Union. ”Regeringskontorer, herunder F.B.I., told og grænsebeskyttelse og lokal retshåndhævelse, skal øjeblikkeligt standse installationen af ​​denne dystopiske teknologi.”

Den føderale rapport er en af ​​de største undersøgelser i sin art. Forskerne havde adgang til mere end 18 millioner fotos af omkring 8,5 millioner mennesker fra De Forenede Staters krusbilleder, visumansøgninger og grænseovergangsdatabaser.

National Institute of Standards and Technology testede 189 ansigtsgenkendelsesalgoritmer fra 99 udviklere, der repræsenterer størstedelen af ​​kommercielle udviklere. De omfattede systemer fra Microsoft, biometriske teknologiselskaber som Cognitec og Megvii, et kunstig intelligensfirma i Kina.

Agenturet testede ikke systemer fra Amazon, Apple, Facebook og Google, fordi de ikke indsendte deres algoritmer til den føderale undersøgelse.

Den føderale rapport bekræfter tidligere undersøgelser fra M.I.T. der rapporterede det ansigtsgenkendelsessystemer fra nogle store tech-virksomheder havde meget lavere nøjagtighedsgrader til at identificere de kvindelige og mørkere hud end de hvide mandlige ansigter.

”Mens nogle biometriske forskere og leverandører har forsøgt at hævde algoritmisk bias ikke er et problem eller er blevet overvundet, giver denne undersøgelse en omfattende tilbagevisning,” Joy Buolamwini, en forsker ved M.I.T. Media Lab, der ledede en af ​​ansigtsundersøgelserne, sagde det i en e-mail. ”Vi skal beskytte den offentlige interesse og standse spredningen af ​​ansigtstilsyn.”

Selvom brugen af ​​ansigtsgenkendelse af retshåndhævelse ikke er ny, spredes nye anvendelser med ringe uafhængig tilsyn eller offentlig kontrol. Kina har brugt teknologien til at overvåge og kontrollere etniske minoritetsgrupper som uigurerne. I år kom embedsmænd fra USAs immigrations- og toldmyndighed under ild for at bruge teknologien til at analysere førerkort for millioner af mennesker uden deres viden.

Partisk ansigtsgenkendelsesteknologi er særlig problematisk ved retshåndhævelse, fordi fejl kan føre til falske beskyldninger og arrestationer. Den nye føderale undersøgelse fandt, at den slags ansigts matchende algoritmer, der blev brugt i retshåndhævelse, havde den højeste fejlrate for afroamerikanske kvinder.

”Konsekvenserne kan være betydningsfulde,” sagde Patrick Grother, datalogi ved N.I.S.T. der var den primære forfatter af den nye rapport. Han sagde, at han håbede, at det ville anspore folk, der udvikler ansigtsgenkendelsesalgoritmer til at "se på de problemer, de måtte have, og hvordan de kan løse det."

Men at sikre, at disse systemer er fair, er kun en del af opgaven, sagde Maria De-Arteaga, en forsker ved Carnegie Mellon University, der er specialiseret i algoritmiske systemer. Efterhånden som ansigtsgenkendelse bliver stærkere, sagde hun, skal virksomheder og regeringer være forsigtige med, hvornår, hvor og hvordan de er implementeret.

”Vi er nødt til at overveje, om vi virkelig ønsker disse teknologier i vores samfund,” sagde hun.



Source link
www.nytimes.com

admin

0 Reviews

Write a Review

Related post

Leave a Reply

Your email address will not be published. Required fields are marked *

By continuing to use the site, you agree to the use of cookies. more information

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close