Logotipo Afya
Anúncio
Medicina de Família31 outubro 2025

Como a rápida expansão da IA generativa pode impactar a prática médica

A IA generativa revoluciona a medicina com avanços em diagnósticos e gestão, mas levanta desafios éticos, clínicos e regulatórios globais.
Por Renato Bergallo

A aceleração de ferramentas de Inteligência Artificial Generativa (GenAI) na Medicina representa um dos movimentos tecnológicos mais rápidos e transformadores da história recente da saúde. Em poucos anos, sistemas de informática inicialmente restritos à pesquisa acadêmica começaram a ser incorporados também em unidades de saúde. Em junho de 2025, a Microsoft anunciou que um modelo de IA havia solucionado oito de dez casos clínicos complexos publicados no New England Journal of Medicine, desempenho superior ao obtido por médicos humanos na mesma prova.  

Apesar de a empresa ter enfatizado que o sistema ainda não está pronto para uso clínico, a notícia simboliza uma mudança de paradigma: diferentes países já testam ou incorporam modelos de IA generativa para diagnósticos, classificações de risco, gestão hospitalar e até vigilância epidemiológica. O Reino Unido, por exemplo, está implementando o primeiro sistema de alerta precoce baseado em IA para detectar riscos de natimortalidade, morte neonatal e lesão cerebral a partir de dados hospitalares em tempo real. Na China, o modelo DeepSeek opera em centenas de hospitais, fornecendo suporte diagnóstico e de gestão em saúde. 

Essas iniciativas evidenciam a rápida expansão global da IA generativa na saúde, impulsionada pela promessa de ganhos em eficiência, precisão e acesso facilitado à expertise. No entanto, essa velocidade traz desafios éticos e clínicos de grande magnitude. O uso prematuro e pouco regulado de ferramentas de IA em ambientes assistenciais levanta preocupações sobre segurança do paciente, dependência excessiva e enfraquecimento das competências médicas essenciais.

Em um estudo publicado na The Lancet Gastroenterology & Hepatology, observou-se que endoscopistas expostos repetidamente à colonoscopia assistida por IA apresentaram redução de 6% na taxa de detecção de adenomas quando voltavam a realizar o exame sem apoio tecnológico, fenômeno descrito como deskilling. Essa aparente perda de destreza diagnóstica e cognitiva ilustra o risco de um novo tipo de iatrogenia: a delegação acrítica de tarefas à tecnologia, com diminuição da autonomia e da capacidade de julgamento clínico. A consequência mais preocupante é a vulnerabilidade que o sistema de saúde apresentaria no caso de a IA falhar, se tornar enviesada ou sofrer possíveis interferências externas. 

O desafio regulatório é igualmente complexo. As legislações atuais – como a Foods and Drugs Administration (FDA), nos Estados Unidos, e o marco europeu para dispositivos médicos – foram criadas para tecnologias estáticas e previsíveis, não para os atuais sistemas dinâmicos de aprendizado contínuo, que evoluem a partir de novos dados e cujos mecanismos decisórios permanecem em grande parte “opacos”, até mesmo para seus desenvolvedores. Modelos de IA generativa apresentam os conhecidos vieses e alucinações e também – os ainda “desconhecidos” – possíveis comportamentos novos e falhas imprevisíveis. Essa imprevisibilidade, inclusive, complica o processo tradicional de validação e pode colocar em risco a equidade no cuidado, especialmente quando o algoritmo é treinado com bases de dados não representativas. 

Uma revisão recente publicada no JAMA destacou a fragilidade metodológica das avaliações de grandes modelos de linguagem (LLMs) em saúde: poucos estudos utilizam dados reais de pacientes, quase nenhum mede vieses de forma sistemática, e a maioria carece de métricas padronizadas de desempenho clínico. Esse cenário reforça a urgência do desenvolvimento e organização de estruturas avaliativas, idealmente internacionais. Mesmo com o desenvolvimento de alguns protocolos promissores, como o POLARIS-GM, o avanço exponencial da tecnologia provavelmente irá superar a velocidade das instâncias regulatórias e acadêmicas.  

A integração responsável da IA generativa na medicina requer governança adaptativa, vigilância contínua e educação médica permanente. Clínicos precisam manter a capacidade crítica para interpretar as saídas da IA, discernir – agora mais do que nunca – entre correlação e causalidade e compreender as limitações estatísticas e contextuais dos modelos. Mais do que substituir o raciocínio médico, a IA deve apoiá-lo na tentativa de expandi-lo – atuando como uma segunda opinião, de viés probabilístico, não como um substituto cognitivo ou muito menos decisório. 

Em última análise, é provável que o impacto da IA generativa sobre a prática médica passará a depender menos da sofisticação técnica dos modelos e mais da maturidade ética e institucional com que forem implantados e operados. A confiança da sociedade na medicina é construída essencialmente sobre a competência humana e a responsabilidade moral; assim, a tecnologia deve servir à medicina, e não o contrário. O desafio dos próximos anos parece ser encontrar o equilíbrio entre inovação e prudência, possibilitando que a inteligência artificial amplie o alcance do cuidado humano. 

Autoria

Foto de Renato Bergallo

Renato Bergallo

Editor-chefe de Medicina de Família e Comunidade do Whitebook ⦁ Graduação em Medicina pela Universidade Federal Fluminense (UFF) ⦁ Residência em Medicina de Família e Comunidade pela Universidade do Estado do Rio de Janeiro (UERJ) e em Administração em Saúde (UERJ) ⦁ Mestre em Saúde da Família (UFF) ⦁ Doutorando em Saúde Pública pela Escola Nacional de Saúde Pública (ENSP/Fiocruz) ⦁ Direto Médico na Conviver Health ⦁ Professor do Departamento de Medicina Integral, Familiar e Comunitária da UERJ

Como você avalia este conteúdo?

Sua opinião ajudará outros médicos a encontrar conteúdos mais relevantes.

Compartilhar artigo

Referências bibliográficas

Newsletter

Aproveite o benefício de manter-se atualizado sem esforço.

Anúncio

Leia também em Medicina de Família