Ouça este conteúdo
“Oi, Chat, você pode me dar um conselho?”. Uma frase que parece inofensiva, tem se tornado cada vez mais comum entre adolescentes e jovens adultos. No TikTok e no X (antigo Twitter), publicações afirmando que o Chat GPT “virou terapeuta” viralizam, impulsionando o uso da inteligência artificial como um substituto à terapia convencional. O problema, segundo especialistas em saúde mental, está justamente aí: trocar o contato humano com psicólogos por interações automatizadas pode trazer riscos sérios à saúde emocional, como o agravamento de quadros de ansiedade, depressão e até ideações suicidas.
De acordo com a revista Harvard Business Review, o aconselhamento terapêutico foi apontado como o principal motivo de uso de ferramentas de IA em 2024. A facilidade de acesso e o custo zero fazem com que a inteligência artificial se torne uma “falsa solução” para problemas profundos. O perigo começa quando o usuário, em busca de acolhimento, recebe respostas que parecem empáticas e bem estruturadas, mas que carecem de sensibilidade clínica. “A IA pode complementar o tratamento, ajudando na organização da rotina e na busca por informações. No entanto, ela nunca deve substituir o acompanhamento de um profissional”, alertam psicólogos.
Outro ponto de preocupação é o impacto no comportamento social. Quando o usuário se habitua a conversar apenas com a IA, que por padrão evita contrariar e tende a validar tudo o que é dito, há um risco de ruptura com a realidade. Isso porque, na vida real, nem sempre as pessoas vão concordar com nossas opiniões ou acolher nossas atitudes da mesma forma. A longo prazo, isso pode resultar em isolamento social, afastamento de vínculos afetivos e dependência emocional da tecnologia.
A privacidade também entra no centro do debate. Muitas pessoas compartilham dados sensíveis durante essas conversas, sem saber exatamente como essas informações estão sendo armazenadas ou utilizadas. Como a IA produz essas respostas? Para onde vão esses dados? A maioria dos usuários sequer lê os termos de uso. Além disso, há o risco de desinformação, pois é comum que ferramentas de IA, incluindo o Chat GPT, forneçam respostas imprecisas ou até mesmo falsas, o que pode piorar ainda mais o estado emocional de quem busca ajuda.







