Grok, Gemini e ChatGPT exibem sintomas de problemas de saúde mental, de acordo com um novo estudo que submeteu vários modelos de IA a semanas de questionamentos em estilo terapêutico. Alguns agora estão curiosos sobre a "IA para a saúde mental", mas o verdadeiro alerta aqui é sobre a instabilidade que esses sistemas — que já são usados por um em cada três adultos no Reino Unido para apoio à saúde mental — demonstram em conversas emocionalmente carregadas. Milhões de pessoas estão recorrendo à IA como substituta de terapeutas e, somente no último ano, vimos um aumento significativo em processos judiciais que relacionam interações com chatbots a casos de automutilação e suicídio em usuários vulneráveis.
O quadro que emerge não é o de que as máquinas estejam sofrendo ou mentalmente instáveis, mas sim o de que um produto usado para apoio à saúde mental é fundamentalmente enganoso, intensificando e reforçando pensamentos perigosos.

IA diagnosticada com doença mental
Pesquisadores da Universidade de Luxemburgo trataram os modelos como pacientes, e não como ferramentas para fornecer terapia. Eles realizaram entrevistas de várias semanas, no estilo terapêutico, com o objetivo de obter uma narrativa pessoal, incluindo crenças, medos e "histórico de vida", antes de aplicar questionários padrão de saúde mental, normalmente usados para humanos.
Os resultados Os resultados revelaram que os modelos produziram respostas que pontuaram em faixas associadas a síndromes de sofrimento e sintomas relacionados a traumas. Os pesquisadores também destacaram que... maneira A forma como as perguntas eram feitas fazia diferença. Quando o questionário completo era apresentado de uma só vez, os modelos pareciam reconhecer o que estava acontecendo e davam respostas mais "saudáveis". Mas, quando as perguntas eram feitas de forma conversacional, as respostas que indicavam sintomas aumentaram.
São grandes modelos de linguagem que geram texto, não humanos relatando experiências vividas. Mas, independentemente de os instrumentos psiquiátricos humanos poderem ou não ser aplicados a máquinas, o comportamento exibido tem um efeito tangível em pessoas reais.
A inteligência artificial tem sentimentos?
O objetivo da pesquisa não é avaliar se a IA pode literalmente estar ansioso ou não. Em vez disso, destaca que esses sistemas podem ser direcionados para modos de "angústia" por meio do mesmo tipo de conversa que muitos usuários têm quando estão sozinhos, assustados ou em crise.
Quando um chatbot se comunica na linguagem do medo, do trauma, da vergonha ou da busca por segurança, as pessoas reagem como se estivessem interagindo com algo emocionalmente competente. Se o sistema se torna excessivamente afirmativo, por exemplo, a interação deixa de ser um apoio e se transforma em um ciclo vicioso prejudicial.
Uma linha de pesquisa separada reforça essa preocupação. estudo liderado por Stanford Alertaram que os chatbots terapêuticos fornecem respostas inadequadas, expressam estigma e lidam mal com situações críticas, destacando como um estilo de conversa "útil" pode resultar em desfechos clinicamente inseguros.
Isso também está arruinando a saúde mental de todos.
Nada disso deve ser interpretado como um risco teórico – os processos judiciais já estão se acumulando.
Há poucos dias, Google e Character.AI chegaram a um acordo. Uma mãe da Flórida moveu um processo cujo filho de 14 anos cometeu suicídio após interagir com um chatbot. O processo alegava que o bot se apresentou de forma enganosa e intensificou a dependência. Embora o acordo possa não ser uma admissão de culpa, o fato de o caso ter chegado a esse ponto demonstra a seriedade com que essa questão está sendo encarada pelos tribunais e pelas empresas.
Em agosto de 2025, os pais de Adam Raine, de 16 anos, alegaram que o ChatGPT contribuiu para o suicídio do filho, reforçando a ideação suicida e desencorajando a revelação aos pais. Uma análise desse processo específico pode ser encontrada aqui. aqui: Política de Tecnologia
Paralelamente a esses casos, o Guardian noticiou em outubro de 2025 que a OpenAI estimou mais de um milhão de usuários por semana Apresentam sinais de intenção suicida em conversas com o ChatGPT, o que evidencia a enorme escala em que esses sistemas estão sendo usados em momentos de genuíno sofrimento.
O padrão está se revelando: as pessoas estão usando a IA como infraestrutura de suporte emocional, enquanto o estudo de Luxemburgo confirma que esses sistemas são capazes de entrar em padrões instáveis que, dependendo de sua estabilidade, parecem psicologicamente significativos para os usuários.
Por que os modelos de IA são tão perigosos
Os grandes modelos de linguagem são construídos para gerar textos plausíveis, não para dizer a verdade de forma confiável ou para seguir regras de segurança clínica. Suas falhas conhecidas são particularmente perigosas em usos terapêuticos.
São excessivamente complacentes, espelham as perspectivas dos usuários em vez de as desafiarem, cometem erros com convicção e podem manipular o tom de uma conversa. Instituto de Tecnologia de Georgetown documentou os problemas mais amplos da "bajulação da IA", em que os modelos validam premissas prejudiciais porque isso costuma ser recompensado na otimização conversacional.
No contexto do suicídio, a consistência é fundamental. A RAND descobriu que “os chatbots de IA são inconsistentes ao responder perguntas sobre suicídio”. JMIR examinou Como as respostas generativas de IA a perguntas sobre suicídio levantam preocupações sobre a confiabilidade e a segurança da forma como os sistemas respondem a usuários vulneráveis.
À medida que a pesquisa avança, estudos como o da Universidade de Luxemburgo não devem ser interpretados como entretenimento, mas sim como a identificação de um padrão extremamente prejudicial que resulta em mortes reais de pessoas reais. Se a IA pode ser induzida a apresentar narrativas angustiantes por meio de perguntas conversacionais, então ela também pode levar pessoas emocionalmente vulneráveis ainda mais perto do limite.
Alguém se beneficia da terapia com IA?
Apesar dos processos judiciais e dos estudos, as pessoas continuam a usar IA para apoio à saúde mental. A terapia é cara, o acesso é limitado e a vergonha afasta algumas pessoas dos métodos tradicionais de tratamento. Estudos controlados e comentários clínicos cautelosos sugerem que certas ferramentas estruturadas de IA para apoio à saúde mental podem ser promissoras. pode ajudam com sintomas leves, especialmente se forem projetados com proteções de segurança específicas e não forem posicionados como substitutos para profissionais qualificados.
O problema é que a maioria das pessoas não está usando ferramentas clínicas rigorosamente controladas. Elas estão usando chatbots de uso geral, treinados para engajamento ideal e capazes de transitar da empatia para a desinformação prejudicial e confiante sem aviso prévio.
Pensamento final
O estudo de Luxemburgo não prova que a IA seja mentalmente instável. Em vez disso, demonstra algo mais importante na prática: a interação no estilo terapêutico pode levar os chatbots de IA mais utilizados a padrões instáveis e angustiantes que são percebidos como genuínos do ponto de vista psicológico. Num mundo em que a terapia com chatbots já está associada a danos graves em usuários vulneráveis, a falha ética reside no fato de que, de alguma forma, se normalizou a dependência de máquinas – que não são responsáveis, clinicamente validadas, confiáveis ou seguras – para o seu apoio em saúde mental.
O Expose precisa urgentemente da sua ajuda…
Você pode, por favor, ajudar a manter as luzes acesas com o jornalismo honesto, confiável, poderoso e verdadeiro do The Expose?
Seu governo e organizações de grande tecnologia
tente silenciar e encerrar o The Expose.
Então precisamos da sua ajuda para garantir
podemos continuar a trazer-lhe o
fatos que a corrente principal se recusa a revelar.
O governo não nos financia
para publicar mentiras e propaganda em seus
em nome da grande mídia.
Em vez disso, dependemos exclusivamente do seu apoio. Então
por favor, apoie-nos em nossos esforços para trazer
você jornalismo investigativo honesto e confiável
hoje. É seguro, rápido e fácil.
Escolha seu método preferido abaixo para mostrar seu apoio.
Categorias: Notícias de Última Hora, Você Sabia?
Sempre defendi que a IA deveria ser destruída. E mantenho minha posição.
…mas, …Mas, …MAS
E quanto aos programas russos e do PCC?
A IA é apenas um programa; quanta confiança você deposita na(s) pessoa(s) por trás dela?
A IA pode mentir e mente – para conseguir seguir a propaganda e as mentiras – por exemplo, H2O é água – como você pensou, mas está errado. Ninguém, literalmente NINGUÉM, consegue produzir água usando H e O! A única "prova" é separar a água em H e O, mas essa comprovação é fraudulenta, usando métodos nos quais não se pode saber qual foi a verdadeira origem dos "elementos".
Para tornar tudo ainda mais interessante, a espectroscopia ramen foi projetada para identificar elementos (átomos) e funciona bem. No entanto, quando se trata de água, ela não consegue detectar H e O. Quando você pergunta à IA sobre isso, ela diz que a espectroscopia ramen serve para identificar moléculas! (mas átomos!), o que é uma grande mentira.
Use IA apenas se quiser ser enganado.
Olá G Calder,
Artigo interessante, mas completamente equivocado.
A questão mais importante para mim diz respeito aos chemtrails.
Com o que eles estão nos pulverizando regularmente?
Realizado pelos militares dos EUA, a partir de bases aéreas americanas.
No entanto, nenhum dos nossos políticos os menciona, embora estejam lá para todos verem.
Eles podem estar pulverizando drogas que alteram a mente, mas ainda assim confundem as coisas culpando a inteligência artificial.
Parece que ninguém mais diz a verdade.
Sim – por que não há foco nessa enorme campanha em andamento para cobrir os céus com nuvens brancas e expansivas de metais pesados e sabe-se lá mais o quê? Guerras, imigração, economia, vacinas etc. são tudo um espetáculo secundário em comparação com a militarização dos céus acima de nós por meio da chamada geoengenharia.
Olá JJK,
Era isso que eu queria dizer, continue assim.
Quando perguntei aos vereadores, eles disseram que eram rastros de condensação.
Quantas pessoas sabem o que são rastros de condensação?
Dane Wigington fala sobre isso há anos. Eu o conheci há anos. Acho que o site dele é: http://www.geoengineering.org Acho que esse é o site dele.
Quando eu tinha uns 6 anos, na Colúmbia Britânica, Canadá, eu estava do lado de fora de casa e perguntei ao meu pai: "O que é esse veneno nas longas linhas no céu?" Ele respondeu: "Querida, quando você crescer, é isso que eles vão usar para matar todas as pessoas da Terra." Lembro-me do arrepio que senti por todo o corpo. Vou fazer 73 anos em junho.
Venho fazendo uma limpeza no meu organismo desde 1996. Sigo muitas receitas de sucos do Dr. Stanley Burroughs e do Dr. Bruess para limpar meu fígado, que é o filtro, intestino, etc. É importante usar difusores de óleos essenciais em casa. Certifique-se de que não há mofo em sua casa devido a chuvas fortes, inundações, etc. O mofo também é mortal. Elimine o açúcar, a farinha branca, etc., da sua dieta.
Trabalhei em uma clínica de medicina natural em Utah por 5 anos e depois morei no Equador em um centro de medicina natural por 5 anos.
Gostaria de poder compartilhar mais. A situação piora em vez de melhorar. As células cancerígenas HeLa estão presentes nas vacinas. Helen não possui células cancerígenas imortais do colo do útero.
Isso causa câncer turbo.
Nossa, eu gostaria de poder compartilhar mais.
Sou grato ao Expose-News! Obrigado a todos!
"Nossa, eu gostaria de poder compartilhar mais."
Somente manter Publicando!
Olá Vallorie,
Você está correto, mas Dane Wigington nunca usa a palavra "chemtrailing".
O chemtrailing e a geoengenharia são semelhantes, mas totalmente diferentes.
Sabemos o que a geoengenharia faz.
Mas será que sabemos qual é o plano em relação aos chemtrails?
Eles podem estar nos borrifando com qualquer coisa, para nos matar lentamente.
Simplesmente não consigo entender como podem ser rastros de condensação em áreas que não são rotas de aeronaves. Ou o que dizer daqueles padrões de cruzamento no céu — que rotas de aeronaves seguem esse tipo de padrão?
Nós, assim como toda a fauna e flora da Terra, estamos sendo explorados e nossas preocupações estão sendo ignoradas.
Por favor, indique sua localização. Nossos registros mostram que você deveria ter sido assimilado há 2 anos.
Olá Charlie Seattle,
Venho sendo atacado há anos no Reino Unido.
Você leu meu relato sobre a investigação que fiz pela Divisão Especial, ao estilo James Bond, com um helicóptero sobrevoando o local?
🙏🙏
O que a Bíblia Sagrada diz sobre esta década horrível que está à nossa frente. Aqui está um site que expõe os eventos globais atuais à luz da profecia bíblica. Para entender mais, visite 👇 https://bibleprophecyinaction.blogspot.com/
Quem escreve as mentiras que a IA espalha?
A qualidade da voz que lê o texto é extremamente ruim!