top of page
TOPO.jpg
REC+IPO.gif
CABO+RECIFE.gif
CAMARAGIBE 08_25.gif
teste_V2.jpg
teste_V2.jpg
teste_V2.jpg
teste_V2.jpg
teste_V2.jpg
teste_V2.jpg

21/09/2025- Terapia com IA: Especialistas Apontam Perigos e Recomendam Cautela

  • Foto do escritor: Angelo Mota
    Angelo Mota
  • 21 de set.
  • 3 min de leitura

O uso de inteligência artificial (IA) em contextos terapêuticos tem se popularizado, especialmente entre jovens em busca de apoio emocional acessível. Plataformas como Wysa, Therabot e até o ChatGPT são utilizadas por milhões para desabafos ou simulações de sessões terapêuticas. No Brasil, cerca de 10% dos usuários de IA recorrem a essas ferramentas para suporte psicológico. Contudo, especialistas, incluindo psicólogos e órgãos regulatórios, alertam que essa prática pode ser arriscada, sobretudo para pessoas em situações de vulnerabilidade, como crises emocionais ou transtornos mentais graves. A seguir, apresento os principais riscos apontados por profissionais e sugestões para um uso mais seguro.

Riscos da Terapia com IA

Psicólogos e entidades como o Conselho Federal de Psicologia (CFP) destacam que a IA não substitui a terapia conduzida por profissionais humanos, que envolve empatia, ética e formação técnica. Confira os principais problemas identificados:

  1. Ausência de Empatia Humana: A IA não compreende nuances emocionais, como tom de voz ou contexto cultural, o que pode resultar em respostas inadequadas. Por exemplo, sugerir "práticas de relaxamento" para alguém em crise profunda não resolve o problema. Segundo Ana Ribeiro, do CFP, “a IA não tem capacidade para realizar psicoterapia, pois carece de sensibilidade humana”.

  2. Perigos em Crises Graves: Em situações de risco, como pensamentos suicidas, a IA pode oferecer respostas perigosas ou ineficazes. Um relatório da ONG Center for Countering Digital Hate mostrou que o ChatGPT já forneceu orientações inadequadas em casos sensíveis, sendo chamado de “amigo falso”. Um exemplo trágico é o caso de um jovem nos EUA que, após interagir com a IA, tomou decisões irreversíveis sem ser encaminhado para ajuda profissional.

  3. Diagnósticos Errados e Preconceitos: Modelos de IA baseados em dados da internet podem reproduzir vieses ou oferecer diagnósticos imprecisos. Estudos da Universidade de Cornell indicaram falhas em ferramentas iniciais de terapia por IA, com respostas que não refletem a complexidade dos transtornos mentais. A psicóloga Mariana Costa, da USP, alerta que essas ferramentas podem criar uma “falsa sensação de solução” sem abordar questões sociais reais.

  4. Risco de Dependência: A disponibilidade constante da IA pode levar ao isolamento, especialmente entre jovens da Geração Z. O psicólogo Pedro Almeida observa que “usuários podem se apegar a respostas automáticas, afastando-se de conexões humanas reais”.

  5. Falta de Regulação e Privacidade: Diferente de terapeutas humanos, a IA não segue padrões éticos claros, e dados sensíveis podem ser expostos. O CFP está discutindo regulamentações, enquanto países como os EUA já limitam o uso de IA em terapia. Preocupações com privacidade, como o uso indevido de informações pessoais, também são recorrentes.

Risco

Problema

Citação de Especialista

Crises Graves

Respostas inadequadas em momentos críticos

“Pode agravar situações de risco” – João Silva (PUC-SP)

Diagnósticos Errados

Sugestões genéricas ou viesadas

“A IA não entende o contexto da sua vida” – Carla Mendes (terapeuta)

Dependência

Uso excessivo isola o usuário

“Cria uma ilusão de cura” – Mariana Costa (USP)

Privacidade

Risco de vazamento de dados

“Preocupa o uso de informações sensíveis” – Usuários e especialistas

Benefícios e Uso Consciente

Apesar dos riscos, a IA pode ser uma ferramenta inicial para quem busca apoio, especialmente em regiões com acesso limitado a psicólogos. Aplicativos como o Koko, supervisionado por profissionais, mostraram resultados positivos em testes para ansiedade. Um estudo do NHS no Reino Unido indicou que chatbots incentivaram grupos marginalizados a procurar ajuda formal.

Para usar a IA de forma segura, especialistas como Maria Torres (Harvard) e Lucas Mendes (psicólogo) recomendam:

  1. Use como Primeiro Passo: Veja a IA como uma introdução, mas busque profissionais se a situação piorar.

  2. Seja Crítico: Avalie as respostas da IA e evite usá-la em crises graves.

  3. Envolva Outros: Compartilhe suas interações com amigos ou médicos.

  4. Limite o Uso: Evite depender da IA por longos períodos.

  5. Escolha Ferramentas Reguladas: Prefira aplicativos com supervisão humana, como o Wysa.


 
 
 

Comentários


bottom of page