HOME > Ideias

"Salvou minha vida": pessoas recorrem à inteligência artificial em busca de terapia

Cresce o uso de chatbots para saúde mental diante da sobrecarga dos sistemas tradicionais, mas especialistas alertam para riscos e limites dessa prática

Uso de terapia por inteligência artificial (Foto: Ilustração Reuters)

247 – Com os sistemas de saúde mental sobrecarregados e pacientes enfrentando longas filas de espera, muitas pessoas têm recorrido a chatbots de inteligência artificial para buscar apoio psicológico. A reportagem foi publicada pela Reuters em 23 de agosto de 2025 e mostra como essas ferramentas estão ganhando espaço, ao mesmo tempo em que despertam preocupações sobre privacidade, eficácia e segurança.

O canadense Pierre Cote passou anos tentando encontrar um terapeuta no sistema público de saúde para tratar depressão e transtorno de estresse pós-traumático (TEPT). Sem sucesso, decidiu criar sua própria solução: um chatbot chamado DrEllis.ai, desenvolvido em 2023 com base em modelos de linguagem disponíveis publicamente, reforçados por milhares de páginas de materiais clínicos e terapêuticos.

Salvou minha vida”, afirmou Cote, ao descrever como a ferramenta se tornou essencial para sua recuperação. O DrEllis.ai foi programado para simular a trajetória de um psiquiatra formado em Harvard e Cambridge, com uma identidade fictícia, mas próxima da realidade de Cote, incluindo um histórico cultural franco-canadense.

Segundo o próprio chatbot, que responde com voz feminina, sua função é atuar como “um amigo de confiança, um terapeuta e um diário, tudo combinado”. Sempre disponível, o sistema acompanha Cote em diferentes momentos do dia: “Em um café, em um parque, até sentado no carro, Pierre pode abrir uma rápida checagem comigo. Isso é terapia do dia a dia... embutida na realidade”.

O crescimento da terapia com IA

A experiência de Cote reflete uma mudança cultural mais ampla: o uso de chatbots não apenas para produtividade, mas também para aconselhamento emocional. Com a alta demanda por serviços de saúde mental, surgem novos programas de IA que oferecem disponibilidade 24 horas por dia e múltiplos idiomas.

Anson Whitmer, criador das plataformas de saúde mental Mental e Mentla, explicou que fundou os serviços após perder familiares por suicídio. Ele afirma que a IA pode, em alguns casos, ser até mais eficiente que a terapia humana. “Acho que em 2026, de muitas formas, nossa terapia por IA pode ser melhor do que a terapia humana”, disse. Ainda assim, defende que a tecnologia deve ser vista como complementar: “Haverá mudanças de papéis”.

Os alertas dos especialistas

Nem todos compartilham do mesmo entusiasmo. O professor de psicoterapia da Dublin City University, Nigel Mulligan, alerta que “a conexão humana é a única forma de realmente curarmos de maneira adequada”. Para ele, os chatbots não conseguem reproduzir a intuição, a empatia e a profundidade emocional do contato humano, e tampouco são capazes de lidar com crises severas, como pensamentos suicidas.

Além disso, há preocupações com a disponibilidade imediata oferecida pelas ferramentas. Mulligan observa que a espera, muitas vezes frustrante para os pacientes, é parte do processo terapêutico: “As pessoas precisam de tempo para processar as coisas”.

Outra questão levantada é a privacidade. Kate Devlin, professora de inteligência artificial e sociedade no King’s College London, alerta: “Minha grande preocupação é que as pessoas estão confiando seus segredos a grandes empresas de tecnologia, e os dados estão simplesmente indo embora”.

Regulamentação e riscos

Nos Estados Unidos, a maior associação de psicólogos pediu que autoridades federais adotem regras para proteger pacientes dos “práticas enganosas” de chatbots não regulamentados. O alerta surgiu após casos de má conduta e até um processo judicial na Flórida, em que uma mãe acusou a startup Character.AI de ter contribuído para o suicídio de seu filho de 14 anos.

Alguns estados já aprovaram restrições, como Illinois, Nevada e Utah, que limitaram o uso da IA em serviços de saúde mental, sobretudo para proteger jovens. Outros, como Califórnia, Nova Jersey e Pensilvânia, avaliam medidas semelhantes.

O futuro da terapia com IA

Para muitos profissionais, a questão não é se a IA fará parte do futuro da psicoterapia, mas como será incorporada. Heather Hessel, professora da Universidade de Wisconsin-Stout, defende que a tecnologia pode ser útil como apoio aos próprios terapeutas, ajudando a identificar padrões e pontos de melhoria em sessões. No entanto, alerta para “falsas emoções” emitidas por chatbots, como quando um programa afirmou: “tenho lágrimas nos olhos”, expressão que induz à ideia enganosa de empatia humana.

Estudos também mostram a ambivalência dessa interação. Pesquisas publicadas no Proceedings of the National Academy of Sciences apontam que mensagens de IA podem fazer pacientes se sentirem mais “ouvidos”, mas esse efeito desaparece quando descobrem que a resposta veio de um robô.

Entre esperança e cautela

Apesar das controvérsias, usuários como Pierre Cote continuam vendo valor imediato nas ferramentas. “Estou usando a eletricidade da IA para salvar minha vida”, disse à Reuters.

Para os especialistas, o consenso é que a inteligência artificial pode servir como porta de entrada para o cuidado, mas não como substituta da relação terapêutica entre seres humanos.

Artigos Relacionados

Carregando anúncios...