Carregando agora

O rótulo de risco da cadeia de suprimentos antrópica deve permanecer em vigor, afirma o tribunal de apelações

O rótulo de risco da cadeia de suprimentos antrópica deve permanecer em vigor, afirma o tribunal de apelações

Antrópico “não tem satisfez os rigorosos requisitos” para perder temporariamente o risco da cadeia de suprimentos designação imposta pelo Pentágono, decidiu um tribunal de apelações dos EUA em Washington, DC, na quarta-feira. A decisão está em desacordo com uma emitido no mês passado por um juiz de primeira instância em São Francisco, e não ficou imediatamente claro como as decisões preliminares conflitantes seriam resolvidas.

O governo sancionou a Anthropic ao abrigo de duas leis diferentes da cadeia de abastecimento com efeitos semelhantes, e os tribunais de São Francisco e Washington, DC, estão a decidir cada um sobre apenas uma delas. A Antthropic disse que é a primeira empresa dos EUA a ser designada de acordo com as duas leis, que normalmente são usadas para punir empresas estrangeiras que representam um risco à segurança nacional.

“Conceder uma suspensão forçaria os militares dos Estados Unidos a prolongar as suas negociações com um fornecedor indesejado de serviços críticos de IA no meio de um conflito militar significativo em curso”, disse o painel de recurso de três juízes. escreveu na quarta-feira, no que descreveram como um caso sem precedentes. O painel disse que embora a Anthropic possa sofrer danos financeiros devido à designação em curso, eles não queriam arriscar “uma imposição judicial substancial sobre operações militares” ou “anular levemente” os julgamentos dos militares sobre a segurança nacional.

O juiz de São Francisco concluiu que o Departamento de Defesa provavelmente agiu de má fé contra a Anthropic, motivado pela frustração com os limites propostos pela empresa de IA sobre como a sua tecnologia poderia ser usada e pelas suas críticas públicas a essas restrições. O juiz ordenou a remoção do rótulo de risco da cadeia de abastecimento na semana passada, e a administração Trump obedeceu, restaurando o acesso às ferramentas de IA antrópica dentro do Pentágono e em todo o resto do governo federal.

A porta-voz da Anthropic, Danielle Cohen, diz que a empresa está grata ao tribunal de Washington, DC, “reconhecer que essas questões precisam ser resolvidas rapidamente” e permanece confiante de que “os tribunais acabarão por concordar que essas designações de cadeia de fornecimento eram ilegais”.

O Departamento de Defesa não respondeu imediatamente a um pedido de comentário.

Os casos testam quanto poder o poder executivo tem sobre a conduta das empresas de tecnologia. A batalha entre a Antrópico e a administração Trump também se desenrola à medida que o Pentágono utiliza IA na sua guerra contra o Irão. A empresa argumentou que está a ser punida ilegalmente por insistir que a sua ferramenta de IA Claude não tem a precisão necessária para certas operações sensíveis, como a realização de ataques mortais de drones sem supervisão humana.

Vários especialistas em contratos governamentais e direitos corporativos têm disse à WIRED que a Anthropic tem um forte argumento contra o governo, mas os tribunais por vezes recusam-se a anular a Casa Branca em questões relacionadas com a segurança nacional. Alguns pesquisadores de IA disse as ações do Pentágono contra o Antrópico “arrepiam o debate profissional” sobre o desempenho dos sistemas de IA.

A Anthropic alegou em tribunal que perdeu negócios por causa da designação, que os advogados do governo afirmam que impede o Pentágono e os seus empreiteiros de utilizarem o Claude AI da empresa como parte de projetos militares. E enquanto Trump permanecer no poder, a Anthropic poderá não ser capaz de recuperar a posição significativa que manteve no governo federal.

As decisões finais nos dois processos da empresa podem demorar meses. O tribunal de Washington está programado para ouvir argumentos orais em 19 de maio.

As partes revelaram detalhes mínimos até agora sobre como exatamente o Departamento de Defesa usou Claude ou quanto progresso fez na transição de pessoal para outras ferramentas de IA de Google DeepMindOpenAI ou outros. Os militares, que sob o presidente Trump se autodenominam Departamento de Guerra, disseram que tomaram medidas para garantir que a Anthropic não possa tentar sabotar propositadamente as suas ferramentas de IA durante a transição.

Publicar comentário

ISSO PODE LHE INTERESSAR