Carregando agora

Daniela Amodei, da Anthropic, acredita que o mercado recompensará a IA segura

Daniela Amodei, da Anthropic, acredita que o mercado recompensará a IA segura

A administração Trump pode pensar que a regulamentação é incapacitante o Indústria de IAmas um dos maiores players do setor não concorda.

No evento Big Interview da WIRED na quinta-feira, Antrópico a presidente e cofundadora Daniela Amodei disse ao editor geral Steven Levy que, embora a IA de Trump e czar da criptografia David Sacks pode ter twittou que a sua empresa está a “executar uma estratégia sofisticada de captura regulamentar baseada na disseminação do medo”, ela está convencida de que o compromisso da sua empresa em denunciar os perigos potenciais da IA ​​está a tornar a indústria mais forte.

“Fomos muito claros desde o primeiro dia que sentimos que havia um potencial incrível (para IA)”, disse Amodei. “Queremos realmente que o mundo inteiro perceba o potencial, os benefícios positivos e as vantagens que podem advir da IA ​​e, para isso, temos de acertar nas coisas difíceis. Temos de tornar os riscos administráveis. E é por isso que falamos tanto sobre isso.”

Mais de 300.000 startups, desenvolvedores e empresas usam alguma versão do modelo Claude da Anthropolic e Amodei disse que, através das negociações da empresa com essas marcas, ela aprendeu que, embora os clientes queiram que sua IA seja capaz de fazer grandes coisas, eles também querem que ela seja confiável e segura.

“Ninguém diz ‘queremos um produto menos seguro’”, disse Amodei, comparando o relatório da Anthropolic sobre os limites e fugas de presos de seu modelo ao de uma empresa automobilística que divulga estudos de testes de colisão para mostrar como aborda as questões de segurança. Pode parecer chocante ver um boneco de teste de colisão voando pela janela de um carro em um vídeo, mas saber que uma montadora atualizou os recursos de segurança de seu veículo como resultado desse teste pode vender um carro ao comprador. Amodei disse que o mesmo se aplica às empresas que utilizam os produtos de IA da Anthropic, criando um mercado que é um tanto auto-regulado.

“Estamos estabelecendo o que quase podemos considerar padrões mínimos de segurança apenas pelo que estamos investindo na economia”, disse ela. “(As empresas) agora estão construindo muitos fluxos de trabalho e tarefas diárias de ferramentas em torno da IA, e dizem: ‘Bem, sabemos que este produto não alucina tanto, não produz conteúdo prejudicial e não faz todas essas coisas ruins.’ Por que você escolheria um concorrente que terá uma pontuação mais baixa nisso?

Fotografia: Annie Noelker

Publicar comentário

ISSO PODE LHE INTERESSAR