21/09/2025- Terapia com IA: Especialistas Apontam Perigos e Recomendam Cautela
- Angelo Mota
- 21 de set.
- 3 min de leitura
O uso de inteligência artificial (IA) em contextos terapêuticos tem se popularizado, especialmente entre jovens em busca de apoio emocional acessível. Plataformas como Wysa, Therabot e até o ChatGPT são utilizadas por milhões para desabafos ou simulações de sessões terapêuticas. No Brasil, cerca de 10% dos usuários de IA recorrem a essas ferramentas para suporte psicológico. Contudo, especialistas, incluindo psicólogos e órgãos regulatórios, alertam que essa prática pode ser arriscada, sobretudo para pessoas em situações de vulnerabilidade, como crises emocionais ou transtornos mentais graves. A seguir, apresento os principais riscos apontados por profissionais e sugestões para um uso mais seguro.
Riscos da Terapia com IA
Psicólogos e entidades como o Conselho Federal de Psicologia (CFP) destacam que a IA não substitui a terapia conduzida por profissionais humanos, que envolve empatia, ética e formação técnica. Confira os principais problemas identificados:
Ausência de Empatia Humana: A IA não compreende nuances emocionais, como tom de voz ou contexto cultural, o que pode resultar em respostas inadequadas. Por exemplo, sugerir "práticas de relaxamento" para alguém em crise profunda não resolve o problema. Segundo Ana Ribeiro, do CFP, “a IA não tem capacidade para realizar psicoterapia, pois carece de sensibilidade humana”.
Perigos em Crises Graves: Em situações de risco, como pensamentos suicidas, a IA pode oferecer respostas perigosas ou ineficazes. Um relatório da ONG Center for Countering Digital Hate mostrou que o ChatGPT já forneceu orientações inadequadas em casos sensíveis, sendo chamado de “amigo falso”. Um exemplo trágico é o caso de um jovem nos EUA que, após interagir com a IA, tomou decisões irreversíveis sem ser encaminhado para ajuda profissional.
Diagnósticos Errados e Preconceitos: Modelos de IA baseados em dados da internet podem reproduzir vieses ou oferecer diagnósticos imprecisos. Estudos da Universidade de Cornell indicaram falhas em ferramentas iniciais de terapia por IA, com respostas que não refletem a complexidade dos transtornos mentais. A psicóloga Mariana Costa, da USP, alerta que essas ferramentas podem criar uma “falsa sensação de solução” sem abordar questões sociais reais.
Risco de Dependência: A disponibilidade constante da IA pode levar ao isolamento, especialmente entre jovens da Geração Z. O psicólogo Pedro Almeida observa que “usuários podem se apegar a respostas automáticas, afastando-se de conexões humanas reais”.
Falta de Regulação e Privacidade: Diferente de terapeutas humanos, a IA não segue padrões éticos claros, e dados sensíveis podem ser expostos. O CFP está discutindo regulamentações, enquanto países como os EUA já limitam o uso de IA em terapia. Preocupações com privacidade, como o uso indevido de informações pessoais, também são recorrentes.
Benefícios e Uso Consciente
Apesar dos riscos, a IA pode ser uma ferramenta inicial para quem busca apoio, especialmente em regiões com acesso limitado a psicólogos. Aplicativos como o Koko, supervisionado por profissionais, mostraram resultados positivos em testes para ansiedade. Um estudo do NHS no Reino Unido indicou que chatbots incentivaram grupos marginalizados a procurar ajuda formal.
Para usar a IA de forma segura, especialistas como Maria Torres (Harvard) e Lucas Mendes (psicólogo) recomendam:
Use como Primeiro Passo: Veja a IA como uma introdução, mas busque profissionais se a situação piorar.
Seja Crítico: Avalie as respostas da IA e evite usá-la em crises graves.
Envolva Outros: Compartilhe suas interações com amigos ou médicos.
Limite o Uso: Evite depender da IA por longos períodos.
Escolha Ferramentas Reguladas: Prefira aplicativos com supervisão humana, como o Wysa.










Comentários