Carregando agora

Como realmente são os modelos de IA para a guerra

Como realmente são os modelos de IA para a guerra

Antrópico pode ter dúvidas sobre dar aos militares dos EUA acesso irrestrito aos seus modelos de IA, mas algumas startups estão construindo IA avançada especificamente para aplicações militares.

Tecnologia Smackque anunciou uma ronda de financiamento de 32 milhões de dólares esta semana, está a desenvolver modelos que, segundo afirma, ultrapassarão em breve as capacidades de Claude no que diz respeito ao planeamento e execução de operações militares. E, diferentemente da Anthropic, a startup parece menos preocupada em proibir tipos específicos de uso militar.

“Quando você serve nas forças armadas, você faz um juramento de que servirá com honra e legalidade, de acordo com as regras da guerra”, diz o CEO Andy Markoff. “Para mim, as pessoas que implantam a tecnologia e garantem que ela seja usada de forma ética precisam estar uniformizadas.”

Markoff dificilmente é um executivo comum de IA. Ex-comandante do Comando de Operações Especiais das Forças Navais dos EUA, ajudou a executar operações de forças especiais de alto risco no Iraque e no Afeganistão. Ele foi cofundador da Smack com Clint Alanis, outro ex-fuzileiro naval, e Dan Gould, um cientista da computação que anteriormente trabalhou como vice-presidente de tecnologia do Tinder.

Os modelos de Smack aprendem a identificar planos de missão ideais através de um processo de tentativa e erro, semelhante à forma como o Google treinou seu programa AlphaGo de 2017. No caso de Smack, a estratégia envolve executar o modelo através de vários cenários de jogos de guerra e fazer com que analistas especializados forneçam um sinal que diga ao modelo se a estratégia escolhida terá resultados. A startup pode não ter o orçamento de um laboratório convencional de IA, mas está gastando milhões para treinar seus primeiros modelos de IA, diz Markoff.

Linhas de Batalha

O uso militar de IA se tornou um tema quente no Vale do Silício depois que funcionários do Departamento de Defesa enfrentou executivos da Anthropic nos termos de um contrato de aproximadamente US$ 200 milhões.

Uma das questões que levaram ao colapso, que resultou na declaração do secretário de defesa Pete Hegseth um risco na cadeia de abastecimentoera o desejo da Antrópico de limitar o uso de seus modelos em armas autônomas.

Markoff diz que o furor obscurece o fato de que os grandes modelos de linguagem atuais não estão otimizados para uso militar. Modelos de uso geral como o de Claude são bons para resumir relatórios, diz ele. Mas eles não são treinados em dados militares e não possuem uma compreensão humana do mundo físico, o que os torna inadequados para controlar hardware físico. “Posso dizer que eles não são absolutamente capazes de identificar alvos”, afirma Markoff.

“Que eu saiba, ninguém no Departamento de Guerra está falando sobre automatizar totalmente a cadeia de morte”, afirma ele, referindo-se às etapas envolvidas na tomada de decisões sobre o uso de força letal.

Escopo da Missão

Os EUA e outros militares já utilizam armas autónomas em determinadas situações, incluindo em sistemas de defesa antimísseis que necessitam de reagir a velocidades sobre-humanas.

“Os EUA e mais de 30 outros estados já estão a implementar sistemas de armas com vários graus de autonomia, incluindo alguns que eu definiria como totalmente autónomos”, afirma Rebecca Crootof, uma autoridade nas questões jurídicas que envolvem armas autónomas no Faculdade de Direito da Universidade de Richmond.

No futuro, modelos especializados como aquele em que Smack está trabalhando também poderão ser usados ​​para fins de planejamento de missão, de acordo com Markoff. Os modelos da empresa destinam-se a ajudar os comandantes a automatizar grande parte do trabalho penoso envolvido na elaboração de planos de missão. O planejamento de missões militares ainda é normalmente feito manualmente com quadros brancos e blocos de notas, diz Markoff.

Se os EUA entrassem em guerra com um “par próximo”, como a Rússia ou a China, diz Markoff, a tomada de decisões automatizada poderia oferecer aos EUA um “domínio de decisão” muito necessário.

Mas ainda é uma questão em aberto se a IA poderia ser usada de forma confiável em tais circunstâncias. Uma experiência recente, conduzida por um pesquisador do King’s College London, mostrou de forma alarmante que os LLMs tendia a escalar conflitos nucleares em jogos de guerra.

Publicar comentário

ISSO PODE LHE INTERESSAR