Carregando agora

O Antrópico está lançando um novo programa para estudar a IA ‘bem -estar do modelo’

Anthropic CEO Dario Amodei

O Future AIS poderia ser “consciente” e experimentar o mundo de maneira semelhante à maneira como os humanos fazem? Não há evidências fortes de que eles o farão, mas antropia não está descartando a possibilidade.

Na quinta -feira, o laboratório da IA anunciado que ele iniciou um programa de pesquisa para investigar – e se preparar para navegar – o que está chamando de “bem -estar do modelo”. Como parte do esforço, o Antrópico diz que explorará coisas como determinar se o “bem-estar” de um modelo de IA merece consideração moral, a importância potencial do modelo “sinais de angústia” e possíveis intervenções de “baixo custo”.

Há grande desacordo na comunidade de IA sobre o que os modelos de características humanas “exibem”, se houver, e como devemos “tratá -los”.

Muitos acadêmicos acreditam que hoje a IA não pode se aproximar da consciência ou da experiência humana e não será necessariamente capaz de no futuro. Ai, como sabemos, é um mecanismo de previsão estatístico. Realmente não “pensa” ou “se sente”, pois esses conceitos são tradicionalmente entendidos. Treinado em inúmeros exemplos de texto, imagens e assim por diante, a IA aprende padrões e, às vezes, maneiras úteis de extrapolar para resolver tarefas.

Como Mike Cook, um pesquisador do King’s College London, especializado em IA, Recentemente disse a TechCrunch em uma entrevistaum modelo não pode “se opor” a uma mudança em seus “valores” porque os modelos não ter valores. Sugerir o contrário, é nós projetarmos no sistema.

“Qualquer pessoa que antropomorfize os sistemas de IA nesse grau esteja jogando por atenção ou entendendo seriamente seu relacionamento com a IA”, disse Cook. “Um sistema de IA é otimizando para seus objetivos ou está ‘adquirindo seus próprios valores’? É uma questão de como você o descreve e como a linguagem que você deseja usar sobre ele é”.

No entanto, outros pesquisadores insistem que ai faz têm valores e outros componentes do tipo humano da tomada de decisão moral. UM estudar Fora do Centro de Segurança da IA, uma organização de pesquisa de IA implica que a IA possui sistemas de valor que o levam a priorizar seu próprio bem-estar sobre os seres humanos em certos cenários.

A Antrópica está estabelecendo as bases para sua iniciativa de bem -estar modelo há algum tempo. No ano passado, a empresa contratado Seu primeiro pesquisador dedicado de “bem -estar da IA”, Kyle Fish, a desenvolver diretrizes sobre como as empresas antrópicas e outras devem abordar a questão. (Fish, que está liderando o novo programa de pesquisa de bem -estar modelo, Disse o New York Times que ele acha que há 15% de chance de Claude ou outra IA está consciente hoje.)

Em um post no blog na quinta -feira, o Antrópico reconheceu que não há consenso científico sobre se os sistemas atuais ou futuros de IA podem estar conscientes ou ter experiências que justificam consideração ética.

“À luz disso, estamos abordando o tópico com humildade e com o menor número possível de suposições”, disse a empresa. “Reconhecemos que precisamos revisar regularmente nossas idéias à medida que o campo se desenvolve.

Publicar comentário

ISSO PODE LHE INTERESSAR