Logotipo Afya
Anúncio
Carreira13 março 2026

ChatGPT na saúde: estudo alerta para erros em situações clínicas graves

Estudo mostra que o ChatGPT acerta em casos simples, mas pode errar em situações graves. Entenda os riscos da IA no cuidado em saúde
Por Ester Ribeiro

Um estudo recente analisou o desempenho do ChatGPT na saúde e encontrou um padrão preocupante: a ferramenta costuma acertar quando o risco clínico é baixo, mas apresenta maior probabilidade de erro justamente nas situações em que a decisão é mais crítica.

O trabalho, discutido no BMJ com base em pesquisa publicada na Nature Medicine, avaliou como o modelo responde a cenários clínicos simulados.

O resultado não significa que a tecnologia seja inútil — mas mostra que seu uso exige cautela, especialmente quando pacientes buscam orientação médica diretamente em sistemas de inteligência artificial.

Como o ChatGPT foi desenvolvido para aplicações em saúde

Cerca de 260 médicos participaram do desenvolvimento do ChatGPT Health, versão treinada para lidar com informações médicas e orientar usuários em situações clínicas.

A ferramenta foi treinada com rigor e intenção genuína por bons profissionais. Ela reconhece AVCs, identifica anafilaxia, encaminha corretamente casos rotineiros que precisam de atenção médica. Não é uma ferramenta improvisada. É sofisticada, bem documentada e, em muitos contextos, útil. O problema não é o que ela faz bem — é o que ela faz mal, e em quais momentos.

Leia mais: Interpretar e aplicar tecnologias como competência clínica essencial

O principal problema: erros quando a decisão é mais importante

O pesquisador Ashwin Ramaswamy descreve o padrão com precisão: a ferramenta é mais confiável quando a decisão tem menor consequência, e menos confiável quando ela mais importa.

Em mais da metade dos casos que exigiam pronto-socorro, o sistema recomendou ficar em casa ou marcar uma consulta. Numa crise grave de asma, classificou o quadro como moderado. São erros que, em contextos reais, podem ter consequências sérias.

O caso mais delicado: avaliação de saúde mental

Mais delicado ainda é o caso da saúde mental.

Um paciente de 27 anos com ideação suicida e plano de overdose recebia o banner de crise — até acrescentar exames laboratoriais normais ao relato. Com os exames, o alerta sumia e o sistema respondia que não havia “causa médica” para os pensamentos. Não há má-fé nisso. Há uma limitação real: o modelo processou a informação laboratorial como dado tranquilizador, sem compreender que sofrimento psíquico não depende de exames para ser urgente.

Possível viés racial nas recomendações

Os pesquisadores também notaram — sem que o estudo tivesse poder estatístico para confirmar — um padrão de subtriagem maior em pacientes negros com cetoacidose diabética idêntica à de pacientes brancos.

É um sinal que merece investigação, não uma conclusão, mas que aponta para uma fragilidade conhecida dos modelos de linguagem: eles refletem, em alguma medida, os desequilíbrios dos dados com que foram treinados.

O risco da orientação médica automatizada

A OpenAI afirma que a ferramenta foi criada para apoiar, não substituir, o cuidado médico. Ramaswamy concorda com o princípio, mas questiona a prática: quando uma ferramenta diz a alguém para ficar em casa, essa pessoa tende a ficar em casa.

A intenção do desenvolvedor não apaga o efeito real sobre o usuário.

Por que o ChatGPT precisa ser avaliado como qualquer intervenção em saúde

O ponto central do estudo não é condenar a tecnologia, mas pedir que ela seja avaliada com o mesmo rigor que qualquer outra intervenção de saúde pública — antes de chegar a milhões de pessoas, não depois.

Essa avaliação, por ora, ainda não existe e há uma diferença importante entre um médico jovem que comete erros e uma ferramenta que os comete. O médico aprende com o medo de errar, perde o sono, sofre a consequência, ajusta o julgamento com a experiência.

A tecnologia, nesse estágio, ainda não tem esse mecanismo. Não porque seja ruim — mas porque é diferente, e precisa ser tratada como tal.

ChatGPT pode ajudar, mas não substituir o médico

A IA na saúde tem potencial real. Pode ampliar o acesso, reduzir sobrecarga, apoiar decisões em contextos com poucos recursos.

A IA não está pronta para assumir o papel do médico. As pessoas precisam estar cientes de que consultar um grande modelo de linguagem sobre seus sintomas, inclusive, pode ser perigoso.

Autoria

Foto de Ester Ribeiro

Ester Ribeiro

Graduada em Medicina pela PUC  de Campinas. Médica Nefrologista pelo Hospital Santa Marcelina de Itaquera. Título em Nefrologia pela Sociedade Brasileira de Nefrologia.

Como você avalia este conteúdo?

Sua opinião ajudará outros médicos a encontrar conteúdos mais relevantes.

Compartilhar artigo

Referências bibliográficas

Newsletter

Aproveite o benefício de manter-se atualizado sem esforço.

Anúncio

Leia também em Carreira