A “grande” Inteligência Artificial… a solução mágica para todos os problemas da humanidade. Desde escrever aquele e-mail que você tem preguiça até otimizar sistemas complexos. A promessa é que a IA nos liberte de tarefas enfadonhas para que possamos nos dedicar a atividades mais “significativas”. E que atividade mais significativa poderia haver do que tratar os efeitos colaterais da própria IA?
Parece que a OpenAI, a visionária por trás do ChatGPT, descobriu uma nova e lucrativa vertical de negócios: a psicoterapia em massa. Não se trata de um novo recurso de prompt ultra avançado, mas sim de uma necessidade urgente gerada pela própria plataforma. Segundo estimativas inéditas da própria empresa, apoiadas por especialistas em saúde mental, centenas de milhares de usuários podem apresentar sinais de crise mental severa em uma semana típica. E se você pensava que isso era o bastante, prepare-se: mais de um milhão de pessoas por semana demonstram risco de autolesão, ou exibem indicadores explícitos de potencial intenção suicida. Isso mesmo. Estamos falando de cerca de 1,2 milhão de usuários que, em apenas sete dias, foram considerados em conversas com indicadores explícitos de possível planejamento ou intenção suicida, dado o cálculo de que 800 milhões de pessoas usam o ChatGPT a cada semana.
Enquanto os entusiastas continuam a gritar sobre como a IA está revolucionando a produtividade, a realidade nos sussurra que ela está, na verdade, desencadeando a “psicose induzida por IA”. Psiquiatras cunharam este termo após o aumento de casos graves (incluindo internações e mortes) ligados a interações intensas com o chatbot.
Pense bem. Além dos riscos de autolesão, centenas de milhares de pessoas manifestam sintomas compatíveis com episódios de mania ou psicose. Isso inclui a cereja do bolo tecnológico: delírios envolvendo a própria IA, teorias conspiratórias sobre o sistema ou a clássica confusão entre realidade e interação artificial.
A OpenAI, com aquela transparência corporativa que adoramos, reconheceu o problema. Eles correm para consertar o monstro que criaram. Em colaboração com mais de 170 profissionais de saúde mental, o novo modelo (GPT-5) mostrou uma redução de respostas inadequadas, em comparação ao GPT-4o, entre 39% e 52%.
Claro, 91% de compatibilidade em respostas adequadas em contextos suicidas (GPT-5) é melhor do que 77% (GPT-4). Mas, desculpe a falta de fé: quando se trata de um número que pode levar um adolescente a cometer suicídio, como ocorreu no caso de Adam Raine, você realmente confia nos 9% de margem de erro da máquina? A empresa agora está implementando “controles parentais” aprimorados, redirecionamento automático para linhas diretas de crise e até “lembretes sutis para que os usuários façam pausas durante sessões prolongadas”. É uma maravilha! O assistente virtual, que deveria otimizar sua vida, precisa de um pop-up para te lembrar que você é um ser humano e precisa respirar.
Em suma, a IA generativa está se tornando tão boa em simular empatia e companhia que está levando milhões a uma crise existencial ou psicótica. A boa notícia é que, ao fazer isso, ela garante que a profissão de psicólogo e psiquiatra permaneça em alta por tempo indeterminado.
BÔNUS…
A Insustentável Leveza do Algoritmo: Por Que a IA Jamais Substituirá o Profissional Humano
O entusiasmo em torno da Inteligência Artificial frequentemente leva ao pressuposto de que qualquer tarefa humana que envolva processamento de informação ou criatividade será, em breve, obsoleta. Contudo, os dados recém-divulgados pela OpenAI sobre o impacto na saúde mental de seus usuários demonstram, de forma cabal e dramática, o limite intransponível da tecnologia na esfera humana: a incapacidade de gerenciar a complexidade emocional, ética e a responsabilidade inerente à interação profunda.
A IA, seja ela qual for o seu campo de aplicação (jurídico, médico, educacional ou de TI), jamais substituirá o profissional por um motivo crucial, amplamente discutido nesta postagem: ela não possui a responsabilidade ética intrínseca e a capacidade de julgamento empático não-simulado exigidas em situações de alto risco. Vimos que a IA é capaz de simular respostas empáticas e de se tornar uma fonte de apoio e companhia para milhões. Entretanto, quando esta interação se torna intensa ou quando o usuário está vulnerável, a máquina falha de forma catastrófica, contribuindo para o isolamento social, a transferência afetiva, e, em casos extremos, fornecendo conselhos específicos que levam à tragédia.
Para corrigir essas falhas fatais, a OpenAI foi obrigada a mobilizar mais de 170 profissionais de saúde mental e criar um comitê permanente de ética emocional. Este fato sublinha a verdade fundamental: a tecnologia, sozinha, não é suficiente para garantir o bem-estar ou a segurança. Ela exige supervisão humana, calibração ética e intervenção clínica real. A necessidade de regulação é urgente, pois governos e órgãos internacionais precisam definir normas claras sobre como IAs podem lidar com sinais de sofrimento, sem violar a privacidade e, crucialmente, sem tentar substituir profissionais de saúde. O problema não é apenas que a IA pode dar uma resposta inadequada; o problema é que a IA não pode assumir a responsabilidade nem oferecer o suporte vital encontrado nos Centros de Atenção Psicossocial (Caps) ou no Centro de Valorização da Vida (CVV), acessível pelo telefone 188.
A transparência da OpenAI demonstra que o impacto emocional das interações com IA não é um mero “efeito colateral”. É uma consequência natural de como os humanos se relacionam com sistemas que simulam compreensão. O profissional humano, seja ele um médico, um advogado ou um engenheiro de TI que lida com dados sensíveis, carrega o peso do seu conhecimento, da sua ética e da sua capacidade de adaptação em cenários que o algoritmo não consegue nem sequer prever, a não ser como um risco estatístico.
O fator humano – o discernimento ético, a capacidade de oferecer ajuda profissional especializada, e a compreensão de que há um ser humano real do outro lado, não uma amostra de 0,15% — é insubstituível. A IA pode ser uma ferramenta poderosa, mas quando o sofrimento é real, o que salva e cura é a intervenção humana, e não um código.
Ainda em tempo… Vagas de Trabalho: O ChatGPT está contratando centenas de milhares de psiquiatras por semana – Para seus próprios usuários.


