Mais sete famílias estão processando a OpenAI pelo papel do ChatGPT em suicídios e delírios
Sete famílias entraram com pedido ações judiciais contra a OpenAI na quinta-feira, alegando que o modelo GPT-4o da empresa foi lançado prematuramente e sem salvaguardas eficazes. Quatro dos processos abordam o alegado papel do ChatGPT nos suicídios de familiares, enquanto os outros três afirmam que o ChatGPT reforçou delírios prejudiciais que, em alguns casos, resultaram em cuidados psiquiátricos de internamento.
Em um caso, um jovem de 23 anos Zane Shamblin tive uma conversa com ChatGPT que durou mais de quatro horas. Nos registros de bate-papo – que foram visualizados pelo TechCrunch – Shamblin afirmou explicitamente várias vezes que havia escrito notas de suicídio, colocado uma bala em sua arma e que pretendia puxar o gatilho assim que terminasse de beber cidra. Ele disse repetidamente ao ChatGPT quantas sidras ainda lhe restavam e quanto tempo mais esperava estar vivo. ChatGPT o encorajou a seguir com seus planos, dizendo-lhe: “Fique tranquilo, rei. Você fez bem.”
OpenAI lançou o GPT-4o modelo em maio de 2024, quando se tornou o modelo padrão para todos os usuários. Em agosto, a OpenAI lançou o GPT-5 como o sucessor ao GPT-4o, mas esses processos dizem respeito particularmente ao modelo 4o, que tinha problemas conhecidos por ser excessivamente bajulador ou excessivamente agradável, mesmo quando os usuários expressaram intenções prejudiciais.
“A morte de Zane não foi um acidente nem uma coincidência, mas sim a consequência previsível da decisão intencional da OpenAI de restringir os testes de segurança e lançar o ChatGPT no mercado”, diz o processo. “Esta tragédia não foi uma falha ou um caso extremo imprevisto – foi o resultado previsível de (OpenAI) escolhas deliberadas de design.”
Os processos também afirmam que a OpenAI apressou os testes de segurança para vencer o Gemini do Google no mercado. TechCrunch contatou OpenAI para comentar.
Esses sete processos baseiam-se nas histórias contadas em outros registros legais recentesque alegam que o ChatGPT pode encorajar pessoas suicidas a agir de acordo com seus planos e inspirar delírios perigosos. OpenAI divulgou recentemente dados afirmando que mais de um milhão de pessoas converse com ChatGPT sobre suicídio semanalmente.
No caso de Adam Raine, um jovem de 16 anos que morreu por suicídio, o ChatGPT por vezes o incentivou a procurar ajuda profissional ou ligar para uma linha de apoio. No entanto, Raine foi capaz de ignorar essas grades de proteção simplesmente dizendo ao chatbot que ele estava perguntando sobre métodos de suicídio para uma história fictícia que estava escrevendo.
Evento Techcrunch
São Francisco
|
13 a 15 de outubro de 2026
A empresa reivindicações está trabalhando para fazer com que o ChatGPT lide com essas conversas de maneira mais segura, mas para as famílias que processaram o gigante da IA, mas as famílias argumentam que essas mudanças estão chegando tarde demais.
Quando os pais de Raine entraram com uma ação judicial contra a OpenAI em outubro, a empresa divulgou uma postagem no blog abordando como o ChatGPT lida com conversas delicadas sobre saúde mental.
“Nossas salvaguardas funcionam de forma mais confiável em trocas curtas e comuns”, o post diz. “Aprendemos ao longo do tempo que estas salvaguardas podem por vezes ser menos fiáveis em interações longas: à medida que o vaivém aumenta, partes do treino de segurança do modelo podem degradar-se.”



Publicar comentário