MENU

16/08/2024 às 12h24min - Atualizada em 16/08/2024 às 12h24min

CBSA vai usar aplicativo de reconhecimento facial para pessoas que enfrentam deportação

A cada ano, cerca de 2.000 pessoas que receberam ordens para deixar o país não comparecem, o que significa que a CBSA "precisa gastar recursos consideráveis investigando, localizando e, em alguns casos, detendo esses clientes", diz um documento de 2021

Júnior Mendonça
com informações The Canadian Press
Global News / Reprodução
 
A Agência de Serviços de Fronteira do Canadá planeja implementar um aplicativo que usa tecnologia de reconhecimento facial para rastrear pessoas que receberam ordens de serem deportadas do país.

O aplicativo móvel de relatórios usaria biometria para confirmar a identidade de uma pessoa e registrar seus dados de localização quando ela usar o aplicativo para fazer o check-in. Documentos obtidos por meio de acesso a informações indicam que a CBSA propôs um aplicativo desse tipo já em 2021.

Um porta-voz confirmou que um aplicativo chamado ReportIn será lançado neste outono.

Os especialistas estão sinalizando várias preocupações, questionando a validade do consentimento do usuário e o possível sigilo sobre como a tecnologia toma suas decisões.

A cada ano, cerca de 2.000 pessoas que receberam ordens para deixar o país não comparecem, o que significa que a CBSA "precisa gastar recursos consideráveis investigando, localizando e, em alguns casos, detendo esses clientes", diz um documento de 2021.

A agência apresentou um aplicativo para smartphone como uma "solução ideal".

A obtenção de atualizações regulares por meio do aplicativo sobre o "endereço residencial, emprego, situação familiar, entre outras coisas, permitirá que a CBSA tenha informações relevantes que podem ser usadas para entrar em contato e monitorar o cliente em busca de quaisquer indicadores iniciais de não conformidade", disse.

"Além disso, dada a automação, é mais provável que o cliente se sinta envolvido e reconheça o nível de visibilidade que a CBSA tem sobre seu caso."

Além disso, o documento observou: "Se um cliente não comparecer para remoção, as informações coletadas por meio do aplicativo fornecerão boas pistas de investigação para localizar o cliente."

Uma avaliação de impacto algorítmico para o projeto - ainda não publicada no site do governo federal - disse que a tecnologia biométrica de voz que a CBSA tentou usar estava sendo eliminada devido a uma "tecnologia falha", e o aplicativo ReportIn foi desenvolvido para substituí-la.

Segundo a empresa, a "biometria facial e a localização de uma pessoa, fornecidas por sensores e/ou pelo GPS do dispositivo móvel/smartphone" são registradas por meio do aplicativo ReportIn e, em seguida, enviadas ao sistema de back-end do CBSA.

Depois que as pessoas enviam as fotos, um "algoritmo de comparação facial" gera uma pontuação de similaridade com uma foto de referência.

Se o sistema não confirmar uma correspondência facial, ele aciona um processo para que os policiais investiguem o caso.

"A localização dos indivíduos também é coletada toda vez que eles fazem uma denúncia e se o indivíduo não cumprir suas condições", disse o documento. O documento observou que os indivíduos não serão "constantemente rastreados".

O aplicativo usa tecnologia da Amazon Web Services. Essa é uma escolha que chamou a atenção de Brenda McPhail, diretora de educação executiva do programa de políticas públicas em sociedade digital da McMaster University.

Ela disse que, embora muitas empresas de reconhecimento facial enviem seus algoritmos para teste ao Instituto Nacional de Padrões e Tecnologia dos EUA, a Amazon nunca o fez voluntariamente.

Um porta-voz da Amazon Web Services disse que sua tecnologia Amazon Rekognition é "testada extensivamente - inclusive por terceiros como a Credo AI, uma empresa especializada em IA responsável, e a iBeta Quality Assurance".

O porta-voz acrescentou que o Amazon Rekognition é um "sistema em grande escala baseado em nuvem e, portanto, não pode ser baixado conforme descrito na orientação de participação do NIST".

"É por isso que nosso Rekognition Face Liveness foi submetido a testes de acordo com os padrões do setor no iBeta Lab", que é credenciado pelo instituto como um laboratório de testes independente, disse o porta-voz.

O documento da CBSA diz que o algoritmo usado será um segredo comercial. Em uma situação que poderia ter consequências que mudariam sua vida, McPhail perguntou se é "apropriado usar uma ferramenta que é protegida por segredos comerciais ou segredos de propriedade e que nega às pessoas o direito de entender como as decisões sobre elas estão realmente sendo tomadas".

Kristen Thomasen, professora associada e presidente de direito, robótica e sociedade da Universidade de Windsor, disse que a referência a segredos comerciais é um sinal de que pode haver impedimentos legais que bloqueiem as informações sobre o sistema.

Há anos existe a preocupação de que as pessoas que estão sujeitas a erros nos sistemas sejam legalmente proibidas de obter mais informações devido às proteções de propriedade intelectual, explicou ela.

A porta-voz da CBSA, Maria Ladouceur, disse que a agência "desenvolveu esse aplicativo para smartphone para permitir que estrangeiros e residentes permanentes sujeitos a condições de aplicação da imigração façam denúncias sem precisar ir pessoalmente a um escritório da CBSA".

Ela disse que a agência "trabalhou em estreita consulta" com o Office of the Privacy Commissioner no aplicativo. "A inscrição no ReportIn será voluntária, e os usuários precisarão consentir tanto com o uso do aplicativo quanto com o uso de sua imagem para verificar sua identidade."

Petra Molnar, diretora associada do laboratório de direito dos refugiados da Universidade de York, disse que há um desequilíbrio de poder entre a agência que implementa o aplicativo e as pessoas que o recebem.

"Uma pessoa pode realmente consentir nessa situação em que há uma grande diferença de poder?"

Se um indivíduo não consentir em participar, ele pode fazer uma denúncia pessoalmente como alternativa, disse Ladouceur.

Thomasen também advertiu que há um risco de erros com a tecnologia de reconhecimento facial, e esse risco é maior para indivíduos racializados e pessoas com pele mais escura.

Molnar disse que é "muito preocupante o fato de não haver basicamente nenhuma discussão sobre (...) os impactos sobre os direitos humanos nos documentos".

O porta-voz da CBSA disse que a Credo AI analisou o software em busca de preconceitos contra grupos demográficos e encontrou uma taxa de correspondência facial de 99,9% em seis grupos demográficos diferentes, acrescentando que o aplicativo "será testado continuamente após o lançamento para avaliar a precisão e o desempenho".

A decisão final será tomada por um ser humano, com oficiais supervisionando todos os envios, mas os especialistas observaram que os seres humanos tendem a confiar nos julgamentos feitos pela tecnologia.

Thomasen disse que há uma "tendência psicológica amplamente reconhecida (...) para que as pessoas confiem na experiência do sistema de computador", quando os sistemas de computador são considerados menos tendenciosos ou mais precisos.

Link
Tags »
Notícias Relacionadas »
Comentários »