Carregando agora

CBP assina acordo Clearview AI para usar reconhecimento facial para ‘segmentação tática’

CBP assina acordo Clearview AI para usar reconhecimento facial para 'segmentação tática'

Alfândega dos Estados Unidos e a Proteção de Fronteiras planeja gastar US$ 225 mil por um ano de acesso a IA de visualização claraum reconhecimento facial ferramenta que compara fotos com bilhões de imagens raspado da internet.

O acordo estende o acesso às ferramentas Clearview à divisão de inteligência da sede da Patrulha de Fronteira (INTEL) e ao National Targeting Center, unidades que coletam e analisam dados como parte de o que o CBP chama um esforço coordenado para “perturbar, degradar e desmantelar” pessoas e redes vistas como ameaças à segurança.

O contrato afirma que o Clearview fornece acesso a “mais de 60 bilhões de imagens disponíveis publicamente” e será usado para “direcionamento tático” e “análise estratégica de contra-rede”, indicando que o serviço se destina a ser incorporado no trabalho diário de inteligência dos analistas, em vez de ser reservado para investigações isoladas. O CBP afirma que as suas unidades de inteligência recorrem a uma “variedade de fontes”, incluindo ferramentas comercialmente disponíveis e dados publicamente disponíveis, para identificar pessoas e mapear as suas ligações para operações de segurança nacional e imigração.

O acordo prevê que os analistas manipulem dados pessoais sensíveis, incluindo identificadores biométricos, como imagens faciais, e exige acordos de confidencialidade para os prestadores de serviços que tenham acesso. Ele não especifica quais tipos de fotos os agentes enviarão, se as pesquisas podem incluir cidadãos dos EUA ou por quanto tempo as imagens ou os resultados da pesquisa enviados serão retidos.

O contrato Clearview chega num momento em que o Departamento de Segurança Interna enfrenta um escrutínio cada vez maior sobre a forma como o reconhecimento facial é utilizado em operações federais de aplicação da lei muito para além da fronteira, incluindo ações em grande escala em cidades dos EUA que capturaram cidadãos dos EUA. Grupos de liberdades civis e legisladores questionaram se as ferramentas de busca facial estão a ser implementadas como infra-estruturas de inteligência de rotina, em vez de ajudas de investigação limitadas, e se as salvaguardas têm acompanhado o ritmo da expansão.

Na semana passada, o senador Ed Markey legislação introduzida isso impediria o ICE e o CBP de utilizarem totalmente a tecnologia de reconhecimento facial, citando preocupações de que a vigilância biométrica esteja a ser incorporada sem limites claros, transparência ou consentimento público.

O CBP não respondeu imediatamente às perguntas sobre como o Clearview seria integrado aos seus sistemas, que tipos de imagens os agentes estão autorizados a fazer upload e se as pesquisas podem incluir cidadãos dos EUA.

O modelo de negócios da Clearview atraiu escrutínio porque depende da extração de fotos de sites públicos em grande escala. Essas imagens são convertidas em modelos biométricos sem o conhecimento ou consentimento das pessoas fotografadas.

Clearview também aparece no lançamento recente do DHS inventário de inteligência artificialvinculado a um piloto do CBP iniciado em outubro de 2025. A entrada de inventário vincula o piloto ao Sistema de Verificação de Viajantes do CBP, que realiza comparações faciais nos portos de entrada e outras triagens relacionadas às fronteiras.

O CBP declara em sua documentação de privacidade pública que o Sistema de Verificação de Viajantes não usa informações de “fontes comerciais ou dados disponíveis publicamente”. É mais provável, no lançamento, que o acesso ao Clearview esteja vinculado ao Automated Targeting System do CBP, que liga galerias biométricas, listas de observação e registos de aplicação, incluindo ficheiros ligados a operações recentes de imigração e fiscalização alfandegária em áreas dos EUA longe de qualquer fronteira.

A Clearview AI não respondeu imediatamente a um pedido de comentário.

Testes recentes pelo Instituto Nacional de Padrões e Tecnologiaque avaliou a Clearview AI entre outros fornecedores, descobriu que os sistemas de pesquisa facial podem funcionar bem em “fotos de alta qualidade semelhantes a vistos”, mas falham em ambientes menos controlados. Imagens capturadas em passagens de fronteira que “não eram originalmente destinadas ao reconhecimento facial automatizado” produziram taxas de erro “muito mais altas, muitas vezes superiores a 20%, mesmo com algoritmos mais precisos”, dizem cientistas federais.

Os testes sublinham uma limitação central da tecnologia: o NIST descobriu que os sistemas de busca facial não conseguem reduzir correspondências falsas sem aumentar também o risco de os sistemas não conseguirem reconhecer a pessoa correta.

Como resultado, o NIST diz que as agências podem operar o software num ambiente “investigativo” que retorna uma lista classificada de candidatos para revisão humana, em vez de uma única correspondência confirmada. Entretanto, quando os sistemas são configurados para sempre retornar candidatos, as pesquisas por pessoas que ainda não estão no banco de dados ainda gerarão “correspondências” para revisão. Nesses casos, os resultados estarão sempre 100% errados.

Publicar comentário

ISSO PODE LHE INTERESSAR