Belo Horizonte, 7 de março de 2026

A voz de Minas no portal que mais cresce!

Últimas notícias

Uso do Chat GPT como “terapeuta” cresce e pode ser perigoso à saúde mental

Jovens trocam terapia por inteligência artificial e prática levanta alertas sobre isolamento, desinformação e falta de proteção de dados
Chat GPT como terapeuta
Chat GPT como terapeuta

Ouça este conteúdo

0:00

“Oi, Chat, você pode me dar um conselho?”. Uma frase que parece inofensiva, tem se tornado cada vez mais comum entre adolescentes e jovens adultos. No TikTok e no X (antigo Twitter), publicações afirmando que o Chat GPT “virou terapeuta” viralizam, impulsionando o uso da inteligência artificial como um substituto à terapia convencional. O problema, segundo especialistas em saúde mental, está justamente aí: trocar o contato humano com psicólogos por interações automatizadas pode trazer riscos sérios à saúde emocional, como o agravamento de quadros de ansiedade, depressão e até ideações suicidas.

De acordo com a revista Harvard Business Review, o aconselhamento terapêutico foi apontado como o principal motivo de uso de ferramentas de IA em 2024. A facilidade de acesso e o custo zero fazem com que a inteligência artificial se torne uma “falsa solução” para problemas profundos. O perigo começa quando o usuário, em busca de acolhimento, recebe respostas que parecem empáticas e bem estruturadas, mas que carecem de sensibilidade clínica. “A IA pode complementar o tratamento, ajudando na organização da rotina e na busca por informações. No entanto, ela nunca deve substituir o acompanhamento de um profissional”, alertam psicólogos.

Outro ponto de preocupação é o impacto no comportamento social. Quando o usuário se habitua a conversar apenas com a IA, que por padrão evita contrariar e tende a validar tudo o que é dito, há um risco de ruptura com a realidade. Isso porque, na vida real, nem sempre as pessoas vão concordar com nossas opiniões ou acolher nossas atitudes da mesma forma. A longo prazo, isso pode resultar em isolamento social, afastamento de vínculos afetivos e dependência emocional da tecnologia.

A privacidade também entra no centro do debate. Muitas pessoas compartilham dados sensíveis durante essas conversas, sem saber exatamente como essas informações estão sendo armazenadas ou utilizadas. Como a IA produz essas respostas? Para onde vão esses dados? A maioria dos usuários sequer lê os termos de uso. Além disso, há o risco de desinformação, pois é comum que ferramentas de IA, incluindo o Chat GPT, forneçam respostas imprecisas ou até mesmo falsas, o que pode piorar ainda mais o estado emocional de quem busca ajuda.