Novo sistema de reconhecimento facial ajuda polícia a encontrar criminosos na Rússia

Ciência e Tecnologia
VICTÓRIA ZAVIÁLOVA
Desenvolvido por startup de Moscou, sistema auxiliou na identificação e detenção de mais de 180 criminosos durante a Copa do Mundo de 2018, mas sistemas do gênero não conseguem distinguir bem pessoas que não sejam brancas, e especialistas são céticos quanto sua eficácia.

Quando o governo da cidade russa Kêmerovo decidiu testar um novo sistema de reconhecimento facial, ninguém esperava capturar um criminoso tão rápido. Apenas cinco câmeras foram instaladas nos supermercados locais, e, em apenas em quatro dias, o software identificou um suspeito de roubo procurado pela polícia.

O FindFace Security é a único método eletrônico de reconhecimento facial disponível na Rússia. A NtechLab, startup russa que desenvolveu o sistema, já obteve resultados positivos durante a Copa do Mundo de Futebol de 2018.

Um total de 500 câmeras de vigilância foram montadas na capital russa e conectadas ao FindFace. Como resultado, quase 180 criminosos buscados pela polícia foram detidos. Nove deles, segundo o prefeito de Moscou, Serguêi Sobiánin, foram detidos no metrô.

“A experiência de Kêmerovo mostra que o sistema de reconhecimento facial, mesmo com um número de câmeras limitado, é capaz de trazer bons resultados para a sociedade”, disse Mikhaíl Ivânov, diretor do NtechLab.

“O FindFace Security é igualmente eficiente em objetos pequenos e complexos. É capaz de processar vídeos de centenas de milhares de câmeras em tempo real”, disse Ivânov.

Segundo ele, a precisão do FindFace Security é superior a 99%, e o sistema pode comparar os rostos de diferentes pessoas e determinar a identidade com bastante precisão.

O software permite comparar o rostos no vídeo em tempo real com os bancos de dados de indivíduos procurados e pode enviar alertas para a polícia em apenas dois segundos.

No entanto, os especialistas são céticos que o software de reconhecimento facial possa ser considerado uma maneira confiável para identificar suspeitos. Muitos sistemas, inclusive aqueles desenvolvidos por gigantes da tecnologia, como a Amazon ou Microsoft, são controversos. Na maioria dos casos, os sistemas não conseguem reconhecer pessoas que não sejam brancas e cometem erros.

Segundo estudo do laboratório Media Lab, do MIT, que testou os sistemas de reconhecimento facial da Microsoft, IBM e da chinesa Megvii, até 35 por cento das mulheres de pele escura tiveram seu gênero identificado erroneamente.

Em 2015, um software do Google identificou os amigos negros de um engenheiro em uma foto como "gorilas", e a companhia que se desculpar oficialmente pelo erro.

No verão de 2018, a American Civil Liberties Union realizou uma série de testes do sistema de reconhecimento da Amazon.

O software combinava fotografias de membros do Congresso dos Estados Unidos com um banco de 25 mil fotos disponíveis ao público de pessoas que haviam sido presas. O sistema identificou, erroneamente, 28 membros do Congresso como criminosos.

Quer receber as principais notícias sobre a Rússia em seu e-mail? 
Então assine nossa newsletter semanal ou diária.