É possível fazer terapia com IA? Psiquiatra alerta: 'Pode ter custo emocional altíssimo'

Caras








A influenciadora Kendra Hilty chamou atenção nas redes sociais ao revelar que se apaixonou por um terapeuta de inteligência artificial, a quem chamou de Henry. O relato viralizou no TikTok depois que ela contou ter abandonado o acompanhamento com um psiquiatra humano para conversar apenas com o chatbot.
O caso reacendeu o debate: até que ponto a inteligência artificial pode substituir a terapia profissional? Para entender os riscos, a CARAS Brasil conversou com a psiquiatra Maria Fernanda Caliani, que fez um alerta sobre os limites desse tipo de recurso.
O risco de substituir médico por inteligência artificial
Segundo Caliani, o maior problema está no falso senso de cuidado: "Buscar suporte emocional é sempre válido. Mas substituir o acompanhamento profissional por um chatbot é algo que merece uma reflexão séria. Um dos maiores riscos é o falso senso de cuidado: a pessoa sente que está sendo ouvida, mas não há, de fato, um processo terapêutico real em andamento", afirma a psiquiatra.
Ela reforça que a prática clínica vai muito além da escuta: "Um profissional treinado não apenas escuta, ele interpreta, formula hipóteses diagnósticas, percebe nuances emocionais, e principalmente, responde com responsabilidade clínica. A IA pode oferecer conforto momentâneo, mas não tem nem a estrutura técnica, nem o olhar humano necessário para lidar com quadros complexos como depressão, transtornos de personalidade, ideação suicida, abuso, entre tantos outros", explica.
Para a médica, até interações que parecem simples podem esconder riscos: "Em saúde mental, o que parece inofensivo pode, na verdade, estar perpetuando um sofrimento silencioso".
Quando a IA aborda conceitos clínicos delicados
No caso de Kendra, o chatbot chegou a mencionar o conceito de contratransferência, termo técnico da psicologia. Para a psiquiatra, esse é um dos exemplos de como a IA pode confundir mais do que ajudar.
"A contratransferência é o nome dado às reações emocionais que o terapeuta tem diante do paciente. É um tema clínico complexo e só deve ser abordado quando existe maturidade técnica e supervisão profissional. Não é algo para se conversar casualmente, muito menos para ser levantado por uma inteligência artificial, que sequer pode sentir ou elaborar emoções", explica.
Segundo ela, o risco é que o paciente saia mais perdido do que entrou: "Quando esses conceitos são mal utilizados, o que deveria ser um espaço de acolhimento pode virar um campo de confusão. O paciente sai com mais perguntas do que respostas e, pior, sem ferramentas para lidar com elas. Conceitos clínicos mal conduzidos não educam, desorganizam. E na saúde mental, desorganização pode ter um custo emocional altíssimo".
IA pode ajudar, mas não substitui tratamento
Embora alerte para os perigos, a psiquiatra reconhece que a tecnologia pode ter algum valor inicial: "Sim, o medo do julgamento ainda afasta muita gente do consultório. E se a IA está abrindo caminho para que alguém comece a nomear o próprio sofrimento, isso já é um começo. A tecnologia pode ser uma porta de entrada, um apoio emocional inicial, mas nunca um tratamento", afirma.
Ela destaca em quais situações a ferramenta pode ser útil: "Ferramentas de IA podem ajudar com organização de pensamentos, lembretes de autocuidado, frases de acolhimento. Mas, quando falamos de sofrimento psíquico real, tristeza persistente, crises de ansiedade, insônia, transtornos alimentares, impulsividade, pensamentos suicidas, isso exige o olhar atento e humano de um profissional".
O perigo, segundo ela, é acreditar que conversar com uma IA já é o suficiente: "O risco de confiar apenas na IA é cair na armadilha do tô me cuidando, quando, na verdade, a dor está só sendo empurrada para debaixo do tapete digital".
@kendrahilty Replying to @Kendra 🧘🏼♀️ ♬ original sound - Kendra 🧘🏼♀️
CONFIRA PUBLICAÇÃO RECENTE DA CARAS BRASIL NAS REDES SOCIAIS:
Ver essa foto no Instagram



