As pessoas estão usando Sora 2 para fazer vídeos perturbadores com crianças geradas por IA
Em 7 de outubro, uma conta do TikTok chamada @ fujitiva48 fez uma pergunta provocativa ao lado de seu vídeo mais recente. “O que você acha deste novo brinquedo para crianças?” eles perguntaram a mais de 2.000 telespectadores, que encontraram o que parecia ser uma paródia de um comercial de TV. A resposta foi clara. “Ei, isso não é engraçado”, escreveu uma pessoa. “Quem fez isso deve ser investigado.”
É fácil ver por que o vídeo provocou uma reação tão forte. O comercial falso começa com uma jovem fotorrealista segurando um brinquedo – rosa, brilhante, com uma abelha adornando a alça. É uma caneta, somos informados, enquanto a menina e outras duas rabiscam em um papel enquanto uma narração de um homem adulto narra. Mas é evidente que o design floral do objeto, a capacidade de zumbir e o nome – Vibro Rose – parecem e soam muito como um brinquedo sexual. Um botão “adicione o seu” – o recurso do TikTok que incentiva as pessoas a compartilhar o vídeo em seus feeds – com as palavras “Estou usando meu brinquedo rosa”, elimina até mesmo o menor resquício de dúvida. (WIRED entrou em contato com a conta @ fujitiva48 para comentar, mas não recebeu resposta.)
O clipe desagradável foi criado usando Sora 2, OpenAI’s mais recente gerador de vídeo, que foi inicialmente lançado apenas por convite nos EUA em 30 de setembro. No espaço de apenas uma semana, vídeos como o clipe Vibro Rose migraram de Sora e chegaram à página For You do TikTok. Alguns outros anúncios falsos foram ainda mais explícitos, com a WIRED descobrindo várias contas postando vídeos semelhantes gerados pelo Sora 2 apresentando brinquedos aquáticos em forma de rosa ou cogumelo e decoradores de bolos que esguichavam “leite pegajoso”, “espuma branca” ou “gosma” em imagens realistas de crianças.
O que foi dito acima seria, em muitos países, motivo para investigação se estas fossem crianças reais e não amálgamas digitais. Mas as leis sobre conteúdo fetichista gerado por IA envolvendo menores permanecem confusas. Novos dados de 2025 do Fundação de observação da Internet no Reino Unido observa que os relatos de material de abuso sexual infantil gerado por IA, ou CSAM, duplicaram no período de um ano, de 199 entre janeiro-outubro de 2024 para 426 no mesmo período de 2025. Cinquenta e seis por cento deste conteúdo enquadra-se na Categoria A – a categoria mais grave do Reino Unido que envolve atividade sexual com penetração, atividade sexual com um animal ou sadismo. 94% das imagens ilegais de IA rastreadas pela IWF eram de meninas. (Sora não parece estar gerando nenhum conteúdo de Categoria A.)
“Muitas vezes, vemos imagens de crianças reais sendo mercantilizadas para criar imagens nuas ou sexuais e, esmagadoramente, vemos a IA sendo usada para criar imagens de meninas. É mais uma forma de as meninas serem alvo on-line”, disse Kerry Smith, CEO da IWF, à WIRED.
Este influxo de material prejudicial gerado pela IA incitou o Reino Unido a introduzir um nova emenda ao seu projeto de lei sobre crime e policiamentoo que permitirá que “testadores autorizados” verifiquem se as ferramentas de inteligência artificial não são capazes de gerar CSAM. Como informou a BBC, esta alteração garantiria que os modelos tivessem salvaguardas em relação a imagens específicas, incluindo pornografia extrema e imagens íntimas não consensuais em particular. Nos EUA, 45 estados implementaram leis para criminalizar CSAM gerado por IAa maior parte nos últimos dois anos, à medida que os geradores de IA continuam a evoluir.



Publicar comentário