Há algum tempo, os chatbots, como o ChatGPT e o Gemini, deixaram de ser apenas ferramentas de IA para criação de textos e ganharam um novo aspecto pelos mãos dos usuários: o de terapeuta. As atualizações mais recentes da IA, como o recurso de “memória aprimorada”, que armazena as conversas anteriores em perfis logados, aproximaram ainda mais os usuários dos chatbots, criando uma espécie de “amizade” entre usuário e ferramenta.
Dados divulgados por pesquisa recente da PewResearch mostram que houve um aumento significativo de 33% em 2023 para 43% em 2024 do uso do ChatGPT entre jovens de 18 a 29 anos. Apesar do maior uso do ChatGPT por esses jovens ser destinado a tarefas relacionadas ao trabalho, aprendizado de novos conteúdos e entretenimento, a utilização do chatbot como conselheiro pessoal é o que mais chama atenção.
A febre das sessões de terapia com a IA se destacou ainda mais a partir de vídeos no TikTok, onde usuários compartilhavam suas experiências na “terapia” com o ChatGPT. Nesses vídeos, os usuários mostravam as interações com o chat, os prompts que utilizavam e as respostas atenciosas que a IA enviava.
O que atrai os jovens para a IA?
Atualmente, os fatores que fazem as pessoas escolherem a terapia artificial ao invés da terapia tradicional são o anonimato, a gratuidade, a facilidade de poder desabafar em qualquer momento e qualquer lugar e o fato de não precisar ter uma etapa prévia, como a anamnese feita por psicólogos e psiquiatras.
Segundo dados de estudo publicado no periódico SSM – Population Health, em 2019, mais de 70% dos brasileiros com depressão não recebiam o tratamento necessário. De acordo com esses dados, o acesso ao cuidado psicológico ainda é uma dificuldade, seja pela questão financeira ou pela disponibilidade de profissionais.
Para a psiquiatra e editora do Portal Afya, Tayne Miranda, essa procura se dá pela disponibilidade limitada de psicoterapia no serviço público, além das limitações do atendimento psicológico por plano de saúde. “Eu acho que essa busca — pela terapia com a IA — representa um destino que as pessoas conseguem encontrar para o seu sofrimento e para essa demanda de cuidado que não está sendo atendida em outros locais, os locais onde elas deveriam ser atendidas.”, afirmou a psiquiatra.
Além disso, a nova ferramenta de memória aprimorada da IA tornou mais fácil a criação de laços do usuário com a inteligência. Esse recurso permite que o chat memorize as conversas, analise-as de forma mais refinada e responda dando mais atenção ao usuário.
Na falta de um ser humano que escute e aconselhe, a IA se mostra como uma alternativa que traz conforto e atenção a qualquer hora do dia. Entretanto, para Tayne, a IA seria apenas uma mimetização de uma interação humana e de uma empatia já que não é um ambiente que se estabelece um cuidado de fato. A especialista destaca que essa conexão criada, a longo prazo, pode deixar a pessoa ainda mais solitária e sem possibilidades de ajuda, de uma rede de apoio e de trocas genuínas.
Quais são os riscos do uso de Inteligência Artifical?
Entre os riscos do uso dos chatbots como terapeutas está o retardo da busca por um profissional humano qualificado. A psiquiatra Tayne Miranda aponta que esse retardo pode agravar muito o quadro do paciente e dificultar que um tratamento adequado seja instituído. A especialista ainda citou que a IA não tem a capacidade de enxergar nuances, que apenas humanos enxergariam. Dessa forma, os chatbots não conseguem perceber, por exemplo, indícios de ideação suicida e podem até ajudar a pessoa a realizar o ato em si.
Além disso, o chatbot não possui responsabilidade como um profissional que deve seguir um código de ética. Um psiquiatra ou psicólogo tem o compromisso de direcionar o paciente para um serviço de tratamento adequado e de acionar uma rede de apoio.
Outra preocupação é com a privacidade e proteção da informação. A inteligência artificial está sujeita à possibilidade de invasões e vazamento de dados, e não existem leis de confidencialidade que protejam informações sensíveis enviadas pelo usuário.
A real utilidade da IA na saúde mental
Apesar dessa busca crescente pelas terapias com IA, a procura por profissionais reais ainda acontece e Tayne reforça que os chatbots não representam necessariamente uma concorrência ou uma substituição do atendimento psiquiátrico, justamente por eles serem limitados.
“Eles podem até fornecer um apaziguamento da questão muito imediatista, mas ela vai retornar, porque no final das contas, algo que se institui em um tratamento de saúde mental é a possibilidade de transformação daquela pessoa. É uma transformação que pode abrir portas para que o sintoma se atenue, se modifique e não cause tanto sofrimento ao sujeito.”, afirmou a especialista, que destacou que essas transformações não são possíveis através da IA, o que leva o paciente a buscar, no fim das contas, outro tipo de ajuda.
Ainda que, ao responder a pergunta sobre se poderia ser usado como terapia, o próprio chatGPT afirme: “eu não sou um terapeuta humano. Não substituo um profissional de saúde mental. Se você estiver enfrentando algo muito pesado (como depressão, ideação suicida ou traumas), recomendo com carinho que procure um(a) psicólogo(a) ou psiquiatra — isso é um sinal de coragem, não de fraqueza.”, atualmente não existem bloqueios para o seu uso com esse fim.
Apesar disso, as ferramentas de IA podem ser usadas para auxiliar os médicos no tratamento psicológico de pacientes. É o caso do Serviço Nacional de Saúde do Reino Unido que aderiu ao uso de uma ferramenta de diagnóstico de “triagem eletrônica” para fornecer a psicólogos e psiquiatras informações que os ajudam a determinar a gravidade do quadro clínico de pacientes. A ferramenta economiza 40 minutos na realização de avaliação clínica detalhada para os médicos que podem avaliar mais paciente e reduzir a lista de espera.
Por fim, Tayne explica que os profissionais de saúde mental têm uma tarefa fundamental nessa relação paciente e IA. “Nós temos um papel educativo, de fornecer orientação a população sobre o que é exatamente o tratamento em saúde mental e alertar quais são os riscos de você confiar o seu bem-estar e o seu sofrimento a um dispositivo que não foi criado com essa finalidade.”, conclui a psiquiatra. Portanto, a IA pode sim ser uma aliada na psicoterapia contanto que tenha limites e instrução.
Saiba mais: Série: IA na Medicina
*Este artigo foi revisado pela equipe médica do Portal.
Como você avalia este conteúdo?
Sua opinião ajudará outros médicos a encontrar conteúdos mais relevantes.