Carregando agora

Veja quantas pessoas podem usar o ChatGPT durante uma crise de saúde mental a cada semana

Veja quantas pessoas podem usar o ChatGPT durante uma crise de saúde mental a cada semana

A OpenAI afirma que os especialistas médicos revisaram mais de 1.800 respostas de modelos envolvendo psicose potencial, suicídio e apego emocional e compararam as respostas da versão mais recente do GPT-5 com aquelas produzidas pelo GPT-4o. Embora os médicos nem sempre concordassem, no geral, a OpenAI afirma que descobriram que o modelo mais recente reduziu as respostas indesejadas entre 39% e 52% em todas as categorias.

“Agora, esperamos que muito mais pessoas que estão lutando com essas condições ou que estão enfrentando essas emergências de saúde mental muito intensas possam ser direcionadas para ajuda profissional e tenham maior probabilidade de obter esse tipo de ajuda ou obtê-la mais cedo do que de outra forma”, disse Johannes Heidecke, líder de sistemas de segurança da OpenAI, à WIRED.

Embora a OpenAI pareça ter conseguido tornar o ChatGPT mais seguro, os dados compartilhados têm limitações significativas. A empresa desenvolveu seus próprios benchmarks e não está claro como essas métricas se traduzem em resultados reais. Mesmo que o modelo produza melhores respostas nas avaliações médicas, não há como saber se os utilizadores que sofrem de psicose, pensamentos suicidas ou apego emocional pouco saudável irão realmente procurar ajuda mais rapidamente ou mudar o seu comportamento.

A OpenAI não revelou exatamente como identifica quando os usuários podem estar com sofrimento mental, mas a empresa afirma que tem a capacidade de levar em consideração o histórico geral de bate-papo da pessoa. Por exemplo, se um usuário que nunca discutiu ciência com o ChatGPT de repente afirma ter feito uma descoberta digna de um Prêmio Nobel, isso pode ser um sinal de possível pensamento delirante.

Há também uma série de fatores que os casos relatados de psicose por IA parecem compartilhar. Muitas pessoas que dizem que o ChatGPT reforçou seus pensamentos delirantes descrevem passar horas conversando com o chatbot, geralmente tarde da noite. Isso representou um desafio para a OpenAI porque geralmente foi demonstrado que modelos de linguagem grandes degradam o desempenho à medida que as conversas ficam mais longas. Mas a empresa diz que já fez progressos significativos na resolução do problema.

“Nós (agora) vemos muito menos desse declínio gradual na confiabilidade à medida que as conversas se prolongam”, diz Heidecke. Ele acrescenta que ainda há espaço para melhorias.

Publicar comentário

ISSO PODE LHE INTERESSAR