Carregando agora

As advertências do Papa sobre IA foram geradas por IA, afirma uma ferramenta de detecção

As advertências do Papa sobre IA foram geradas por IA, afirma uma ferramenta de detecção

Na segunda-feira, um novo em folha Reddit A conta apareceu no fórum amplamente lido r/AmItheAsshole, onde os usuários têm suas disputas pessoais arbitradas por estranhos. Este usuário em particular perguntou se eles haviam ultrapassado os limites ao “recusar-se a cuidar dos filhos da minha madrasta porque tenho meu próprio trabalho e responsabilidades”. O postar em si foi sucinto, direto e gramaticalmente limpo, explicando uma situação em que a madrasta e o pai da pessoa muitas vezes esperavam que eles cuidassem dos filhos sem aviso prévio, o que acabou levando a uma discussão.

“Agora há tensão em casa e estou começando a me perguntar se lidei com isso da maneira errada”, concluiu o redditor. “Eu entendo que criar filhos é estressante, mas também sinto que não deveria ser obrigado a assumir essa responsabilidade quando não é minha função.” As respostas a esse indivíduo foram em grande parte de apoio: as crianças não eram suas para cuidar, responderam muitas pessoas, e sair de casa seria o melhor curso de ação.

Mas de acordo com o software de detecção de IA desenvolvido por Laboratórios Pangram– que afirma uma taxa de precisão de 99,98 por cento e uma taxa de falsos positivos de apenas um em 10.000 – a história original de discórdia familiar foi gerada por IA.

Eu o vi sinalizado como conteúdo de IA enquanto rolava a página, graças à versão mais recente da extensão do Pangram para Chrome, que foi lançada ao público esta semana; no nível pago de US$ 20 por mês, a ferramenta verifica postagens em sites sociais, incluindo Reddit, X, LinkedIn, Medium e Substack em tempo real, rotulando-as como escritas por humanos, geradas por IA ou redigidas com assistência de IA. A análise também inclui uma medida da confiança de Pangram na conclusão: baixa, média ou alta.

Os pesquisadores encontraram resíduos de IA em todos os lugares online. Isso prejudica jornalismo e plataformas sociais parecido. Texto gerado, pelo menos em parte, por contas de IA para mais de um terço de todos os novos sites a partir de 2025, de acordo com um estudo publicado este mês por pesquisadores da Universidade de Stanford, do Imperial College de Londres e do Internet Archive. (Os pesquisadores usaram ferramentas Pangram anteriores para chegar às suas descobertas.)

É essa bagunça que Max Spero, CEO da Pangram e autoproclamado “zelador de lixo”, quer ajudar na limpeza. Ele disse à WIRED que adicionar análise instantânea à extensão do navegador da empresa oferece às pessoas uma maneira mais fácil de verificar o conteúdo de IA nos sites que frequentam.

“Ao fornecer verificações proativas, pode ser muito mais útil para pessoas que geralmente se preocupam em não ver resíduos”, explica Spero. “É uma grande vantagem colar algum texto em uma ferramenta externa. As pessoas simplesmente não farão isso.”

É claro que cenários inventados não são nada fora do comum em subreddits como r/AmItheAsshole, onde trolls são conhecidos por postar iscas de noivado que consistem em ficções especialmente absurdas. No entanto, mesmo um leitor perspicaz pode não suspeitar que uma narrativa relativamente banal como a descrita acima seja potencialmente falsa. (O redditor que o compartilhou não respondeu a um pedido de comentário sobre se eles usaram IA ou o que esperavam alcançar com a postagem, que posteriormente foi excluída.)

Embora nenhum sistema de detecção de IA seja perfeito, o Pangram é considerado o mais consistente e preciso pesquisadores terceirizados em diversas universidades; um 2025 Estudo da Universidade de Chicago a auditoria do software de detecção de IA deu à Pangram sua classificação mais alta e observou que sua taxa de falsos positivos era quase zero, especialmente em passagens mais longas. Spero diz que uma das razões pelas quais supera os concorrentes é que é treinado em parte em “exemplos mais difíceis que estão mais próximos da fronteira entre IA e humano”. Não consegui gerar um falso positivo ao testá-lo em artigos publicados na WIRED.

Publicar comentário

ISSO PODE LHE INTERESSAR