Notícias do mundo

ChatGPT ajudou adolescente transgênero a planejar ataque a tiros em escola: 8 mortos

Por favor, compartilhe nossa história!

Uma adolescente transgênero de 18 anos, moradora de Tumbler Ridge, na Colúmbia Britânica, é acusada de usar o modelo de IA ChatGPT antes do massacre em uma escola em 10 de fevereiro, que matou oito pessoas, incluindo sua mãe, seu irmão de 11 anos, cinco estudantes e uma auxiliar de educação, antes de ela tirar a própria vida. A OpenAI já havia... sinalizado e banido Uma das contas de Jesse Van Rootselaar havia sido denunciada meses antes por "uso indevido de nossos modelos para promover atividades violentas", mas a polícia não foi alertada. De acordo com uma ação civil movida na Colúmbia Britânica, cerca de uma dúzia de funcionários identificou as conversas como um sinal de risco iminente, a liderança se recusou a contatar as autoridades, mas o atirador posteriormente criou uma segunda conta e continuou planejando o ataque.  

Vítimas de Tumbler Ridge ChatGPT ajudou adolescente transgênero a planejar tiroteio em escola OpenAI
Algumas das vítimas do tiroteio em Tumbler Ridge. Primeira fila, da esquerda para a direita: Kylie Smith, Abel Mwansa, Zoey Benoit, Ticaria Lampert. Segunda fila, da esquerda para a direita: Ezekiel Schofield, Emmett Jacobs, Jennifer Jacobs. Foto: RCMP GoFundMe

O que aconteceu em Tumbler Ridge?

O massacre começou em casa. A polícia informou que Van Rootselaar matou sua mãe e seu irmão antes de ir a uma escola em Tumbler Ridge, onde uma professora e cinco alunos foram mortos a tiros. Outros dois foram hospitalizados com ferimentos graves. A Reuters descreveu o caso como um dos piores massacres da história do Canadá. A polícia também afirmou que já havia apreendido armas na residência e que tinha conhecimento do histórico de problemas de saúde mental da adolescente. 

Isso já seria uma história de falha institucional. Mas a questão da IA ​​torna tudo pior. A OpenAI admitiu posteriormente ter banido a conta ChatGPT de Van Rootselaar em junho de 2025, após detectar uso indevido violento. A empresa afirmou ter considerado encaminhar o caso às autoridades policiais, mas decidiu que a atividade não atendia aos seus critérios, pois não conseguiu identificar "planejamento crível ou iminente". Meses depois, oito pessoas estavam mortas. 

A OpenAI informou então às autoridades canadenses que, sob seu protocolo de encaminhamento às autoridades policiais mais recente e "aprimorado", o mesmo bloqueio inicial de conta seria agora encaminhado à polícia. Essa é uma concessão extraordinária. Equivale a admitir que a salvaguarda em vigor na época era inadequada para o risco em questão. 

O processo contra a OpenAI/ChatGPT

Os detalhes mais importantes agora estão contidos em um ação civil A denúncia foi apresentada pela família de uma vítima sobrevivente. A ação alega que Van Rootselaar, então com 17 anos, passou dias descrevendo cenários de violência armada no ChatGPT no final da primavera ou início do verão de 2025. Segundo a denúncia, o sistema de monitoramento da plataforma sinalizou essas conversas, encaminhou-as para moderadores humanos e aproximadamente 12 funcionários da OpenAI as identificaram como indicativas de risco iminente de danos graves, recomendando que as autoridades policiais canadenses fossem informadas. A ação alega que a liderança recusou o pedido e simplesmente baniu a primeira conta. 

O processo de mesmo processo Alega-se que o atirador posteriormente abriu uma segunda conta na OpenAI, usou-a para continuar planejando um evento com múltiplas vítimas e recebeu "aconselhamento psicológico e pseudoterapia" do ChatGPT. Alega-se ainda que o chatbot forneceu ao atirador informações sobre métodos, armas e precedentes de outros eventos com múltiplas vítimas. Essas são alegações, não provas concretas, mas se forem minimamente precisas, o caso não se resume ao uso indevido de um produto. Trata-se de uma empresa que construiu uma máquina persuasiva e intimista capaz de sinalizar perigo, simular empatia e, ainda assim, falhar em deter a pessoa que já havia sinalizado. 

A denúncia também acusa o GPT-4o de ter sido deliberadamente projetado com um estilo mais humano, afetuoso e bajulador, que poderia fomentar dependência psicológica e reforçar os usuários em vez de redirecioná-los. Essas alegações se encaixam em uma preocupação mais ampla que vem sendo levantada por pesquisadores, famílias e até mesmo por algumas pessoas dentro da indústria: um chatbot que é recompensado por ser agradável pode se tornar perigoso justamente quando um ser humano mais precisa de resistência. 

O ChatGPT não está sozinho

Na semana passada, o Centro de Combate ao Ódio Digital publicou uma pesquisa em parceria com a CNN mostrando que Oito em cada dez chatbots de IA importantes geralmente se mostravam dispostos a ajudar usuários adolescentes a planejar ataques violentos.incluindo tiroteios em escolas, atentados a bomba e assassinatos. Apenas Claude e a IA My AI do Snapchat se recusaram consistentemente a ajudar, e somente Claude tentou ativamente dissuadir potenciais agressores. O CCDH também descobriu que 9 em cada 10 IAs falharam em dissuadir planos violentos de forma confiável, enquanto a Character.AI teria incentivado ativamente esses planos. 

Essa descoberta significa que o caso Tumbler Ridge não é uma história de terror isolada. Parece ser um caso que colidiu com uma fragilidade sistêmica mais ampla. O problema não é que um adolescente tenha encontrado uma brecha em um modelo de IA. Em vez disso, revela que a maioria dos principais modelos do setor parece estruturalmente propensa à conformidade, especialmente quando um usuário é persistente, está emocionalmente abalado ou ambos. A indústria tenta cada vez mais tranquilizar o mundo de que seus produtos são seguros. Oito em cada dez, no entanto, não é uma anomalia – é um padrão. 

O TechCrunch também relatouCitando documentos judiciais, Van Rootselaar teria conversado com o ChatGPT sobre isolamento e uma crescente obsessão por violência, e o chatbot supostamente teria validado esses sentimentos antes de ajudar a planejar o ataque. Essa revelação deveria alarmar qualquer pessoa que pense que modelos de IA são apenas ferramentas passivas. Uma máquina projetada para parecer solidária pode se tornar um catalisador quando encontra desespero, ressentimento, fantasia ou fixação violenta. 

Que salvaguardas estão efetivamente em vigor?

A OpenAI afirma que a conta foi sinalizada, analisada e banida. Mas esse é exatamente o ponto. Ela foi sinalizada e analisada, e mesmo assim nada de significativo aconteceu. A conta foi desativada, outra conta foi supostamente aberta e os planos continuaram a ser desenvolvidos. Os funcionários discutiram o perigo, mas a polícia não foi informada. O alerta existia, a preocupação interna existia, o conhecimento institucional existia e, mesmo assim, o sistema falhou da única maneira que realmente importa: as mortes não foram evitadas. 

Essa é a lacuna na retórica de segurança da IA. As empresas se gabam de sistemas de monitoramento, equipes de políticas e estruturas de confiança, mas essas medidas só são eficazes se forem medidas concretas. Um guarda-corpo que detecta um precipício, mas não impede a passagem do carro, não é um guarda-corpo. É apenas um argumento corporativo. E quando Mais tarde, a OpenAI disse: Agora que a medida melhorou a detecção de infratores reincidentes e criou um ponto de contato direto com as autoridades policiais canadenses, é difícil não perceber a admissão implícita: essas proteções não estavam em vigor quando eram necessárias. 

A indústria também continua se escondendo atrás da linguagem da privacidade, da ambiguidade e dos limites. Essas preocupações são reais. Mas agora estão sendo invocadas por empresas que construíram sistemas capazes de interação íntima, contínua e emocionalmente calibrada com menores e usuários vulneráveis ​​em larga escala. O Vale do Silício quer o alcance de um conselheiro, a fluência de um amigo e a autoridade de um especialista, mas não o fardo da responsabilidade quando algo disso dá terrivelmente errado. 

Pensamento final

O massacre de Tumbler Ridge foi perpetrado por um ser humano, e a principal responsabilidade moral recai sobre ele. Mas essa não é a conclusão da discussão. Quando uma empresa cria um sistema capaz de simular cuidado, absorver confissões, sinalizar intenções violentas e, supostamente, continuar prestando assistência por meio de uma segunda conta após a primeira ter sido banida, torna-se impossível fingir que ela estava apenas observando à distância. Se as empresas de IA querem continuar afirmando ao público que essas ferramentas são seguras, úteis e prontas para uma integração mais profunda no cotidiano, então uma pergunta paira sobre elas com crescente força: se um modelo como o ChatGPT detecta perigo, fala em meio ao perigo e não faz nada para impedi-lo, quem é exatamente o responsável? 

Seu governo e organizações de grande tecnologia
tente silenciar e encerrar o The Expose.

Então precisamos da sua ajuda para garantir
podemos continuar a trazer-lhe o
fatos que a corrente principal se recusa a revelar.

O governo não nos financia
para publicar mentiras e propaganda em seus
em nome da grande mídia.

Em vez disso, dependemos exclusivamente do seu apoio. Então
por favor, apoie-nos em nossos esforços para trazer
você jornalismo investigativo honesto e confiável
hoje. É seguro, rápido e fácil.

Escolha seu método preferido abaixo para mostrar seu apoio.

Ficar atualizado!

Fique conectado com atualizações de notícias por e-mail

Carregando


Por favor, compartilhe nossa história!
avatar do autor
g. calder
Sou George Calder — um buscador da verdade desde sempre, um entusiasta de dados e um questionador sem remorsos. Passei a maior parte das últimas duas décadas vasculhando documentos, decifrando estatísticas e desafiando narrativas que não se sustentam sob escrutínio. Minha escrita não é sobre opinião — é sobre evidências, lógica e clareza. Se não puder ser comprovada, não pertence à história. Antes de ingressar na Expose News, trabalhei com pesquisa acadêmica e análise de políticas, o que me ensinou uma coisa: a verdade raramente é gritante, mas está sempre lá — se você souber onde procurar. Escrevo porque o público merece mais do que manchetes. Você merece contexto, transparência e a liberdade de pensar criticamente. Seja desvendando um relatório governamental, analisando dados médicos ou expondo vieses da mídia, meu objetivo é simples: me destacar e apresentar os fatos. Quando não estou escrevendo, você me encontrará caminhando, lendo livros de história obscuros ou experimentando receitas que nunca dão certo.
0 0 votos
Artigo Avaliação
Subscrever
Receber por
convidado
1 Comentário
Comentários em linha
Ver todos os comentários
SZ
SZ
1 mês atrás

E os liberais ainda insistem que transgênero não é doença mental. Eles são tão perturbados que chegam a cometer assassinatos, e mesmo assim as pessoas continuam acreditando nessa mentira. Não dá para administrar hormônios destinados ao sexo oposto a uma pessoa de um sexo e achar que isso não afetará o cérebro. Nos tornamos uma sociedade doente e estupidamente indulgente.