Com o avanço da inteligência artificial (IA), muitas pessoas começaram a utilizar o ChatGPT como forma de “terapia”. Mas será que essa prática é segura? Este artigo explora a questão e destaca os principais riscos associados, além de trazer recomendações de órgãos de saúde e relatos recentes sobre o impacto dessas tecnologias.
- O ChatGPT não substitui a terapia tradicional;
- Usuários relatam mais solidão com o uso prolongado;
- Público vulnerável pode estar em risco;
- Organizações como a OMS e conselhos regionais de Psicologia alertam para a necessidade de acompanhamento profissional em situações de sofrimento psíquico.
Por que o ChatGPT não é uma terapia?
A interação com o ChatGPT pode parecer acolhedora, mas carece da criação de um vínculo terapêutico real. Especialistas enfatizam que, embora a IA possa oferecer suporte, ela não substitui a empatia e o julgamento clínico de um profissional humano. Além disso, psicólogos ressaltam que cada pessoa possui demandas emocionais particulares, que requerem intervenções personalizadas e sensíveis ao contexto individual — aspectos que a IA ainda não consegue garantir.

Quem usa o ChatGPT para ‘terapia’?
De acordo com especialistas, o uso inadequado do ChatGPT como terapia é notado principalmente entre crianças e adolescentes, pessoas em vulnerabilidade socioeconômica e indivíduos em crise. Isso se deve à facilidade de acesso e ao baixo custo. Pesquisas recentes apontam ainda que adultos jovens também têm recorrido à IA por conta da praticidade, falta de tempo ou barreiras de acesso à saúde mental nas redes públicas.
- Crianças e adolescentes: usam pela conveniência das redes; podem ficar mais expostos a orientações inadequadas e dados sensíveis.
- Pessoas em situação de pobreza: optam pelo menor custo, mas ficam suscetíveis à falta de orientação profissional adequada.
- Indivíduos em crise: buscam acesso imediato, o que pode aumentar riscos se não houver triagem adequada para situações de emergência.
- Pessoas com transtornos mentais diagnosticados correm o risco de agravar sintomas caso utilizem IA como principal fonte de apoio.
A disponibilidade do ChatGPT pode ser um perigo?
O ChatGPT oferece disponibilidade ilimitada, mas um terapeuta humano oferece a escuta e a interação crítica que a IA não consegue replicar. Terapias de verdade demandam interações específicas, oferecendo um ambiente controlado para crescimento emocional. O fácil acesso à IA pode contribuir para o adiamento da busca pelo tratamento adequado, postergando intervenções eficazes e aumentando o tempo de sofrimento mental.

Riscos de negligenciar atendimento humano
Embora a IA forneça respostas automatizadas, em casos graves como abuso ou risco de suicídio, o atendimento psicoterapêutico humano é vital. As IAS podem falhar em oferecer a assistência necessária nesses contextos sensíveis. Profissionais de psicologia e psiquiatria reforçam a importância do acolhimento humano, que inclui percepção de nuances emocionais e suporte especializado em situações de emergência, algo impossível de ser realizado por algoritmos.
A importância de buscar aconselhamento apropriado
- O acompanhamento humano continua insubstituível em terapias;
- A disponibilidade constante do ChatGPT não atende a necessidades emocionais profundas;
- Busque profissionais qualificados para uma orientação eficaz;
- Acesse canais oficiais de orientação psicológica, como Centros de Atenção Psicossocial (CAPS) e linhas de ajuda como o CVV (Centro de Valorização da Vida), diante de crises emocionais.
Riscos de privacidade ao compartilhar informações com ChatGPT
Além dos riscos emocionais, compartilhar informações pessoais com o ChatGPT representa uma ameaça significativa à privacidade. Dados confidenciais podem ser armazenados e utilizados indevidamente, expondo os usuários a vulnerabilidades indesejadas. Especialistas alertam para a possibilidade de que esses dados sejam comprometidos em casos de falhas de segurança. Empresas de tecnologia, inclusive, recomendam avaliar cuidadosamente quais informações pessoais são fornecidas nesses atendimentos, já que legislações como a LGPD no Brasil nem sempre garantem total proteção dos dados em ambientes virtuais internacionais.
Leia também: 5 perguntas para testar a fidelidade do seu parceiro
O fenômeno das ‘alucinações’ em IA
Um dos riscos associados ao uso do ChatGPT é o fenômeno das ‘alucinações’. As alucinações na IA ocorrem quando o ChatGPT gera respostas confiantes que não são justificadas pelos dados de treinamento. Isso pode resultar em informações incorretas ou enganosas, afetando negativamente a experiência do usuário e, potencialmente, a sua saúde emocional.

Dependência digital e impactos na saúde mental
O uso excessivo de dispositivos digitais, incluindo IA para suporte emocional, pode levar à dependência digital, com consequências adversas para a saúde mental. Os principais sintomas incluem isolamento social, ansiedade, e uma redução na capacidade de formar interações humanas genuínas. É crucial estar ciente desses riscos e moderar o uso de tecnologias digitais para evitar impactos negativos prolongados na saúde emocional e psicológica. Psicólogos recomendam limites diários para o uso de ferramentas digitais e incentivam a busca ativa por vínculos sociais offline, centralizando a tecnologia como recurso complementar, e não substituto, da interação humana.