A incorporação da inteligência artificial na prática clínica avança rapidamente, mas não sem dilemas. Na sessão Artificial Intelligence: Ethics and Bias, apresentada no ACP Internal Medicine Meeting 2026, o foco esteve menos no desempenho das ferramentas e mais em um ponto crítico: como utilizá-las sem comprometer julgamento clínico, segurança e equidade no cuidado.

IA pode superar humanos — mas isso não resolve tudo
Sistemas diagnósticos e prognósticos baseados em inteligência artificial já demonstram desempenho superior ao humano em determinados cenários. Isso, por si só, cria um dilema prático: se a ferramenta é mais precisa, torna-se cada vez mais difícil justificar sua não utilização.
No entanto, a evolução desses sistemas também traz um problema estrutural. Como destacado na sessão, os dados usados para treinar novas gerações de algoritmos passam a ser derivados de decisões previamente influenciadas por inteligência artificial, criando um ciclo de retroalimentação capaz de consolidar erros e vieses ao longo do tempo.
Viés algorítmico não é exceção — é esperado
Um dos pontos centrais discutidos foi que o viés não representa um evento isolado, mas uma consequência direta dos dados utilizados no treinamento dos sistemas.
Modelos treinados com dados de prontuários eletrônicos, registros populacionais ou bases incompletas tendem a reproduzir desigualdades já existentes. Isso inclui diferenças raciais, socioeconômicas e de acesso ao cuidado.
Além disso, modelos de linguagem e sistemas generativos podem reforçar estereótipos ou simplificar identidades de forma inadequada, produzindo efeitos que ultrapassam o campo diagnóstico e alcançam também a comunicação e a experiência do paciente.
ACP 2026: 4 atualizações em endocrinologia para a prática clínica
ACP 2026: principais atualizações em cardiologia, endocrinologia e infectologia
ACP 2026: Novos medicamentos na atenção primária – o que realmente muda na prática
Dependência da IA pode comprometer o julgamento clínico
Outro conceito relevante apresentado foi o de dependência epistêmica prejudicial. À medida que médicos passam a confiar cada vez mais nas recomendações dos sistemas, pode ocorrer perda progressiva da capacidade crítica de avaliar decisões em tempo real.
Na prática, isso significa que o clínico pode deixar de questionar resultados, especialmente quando não consegue compreender ou verificar a lógica interna do algoritmo. Esse fenômeno levanta preocupações éticas importantes, incluindo perda de autonomia profissional e enfraquecimento da responsabilidade moral na tomada de decisão.
Transparência e governança seguem como desafios centrais
A implementação ética da inteligência artificial depende de múltiplos fatores. Entre os principais estão a transparência dos algoritmos, a rastreabilidade das decisões, a proteção de dados e a clareza sobre o uso dessas ferramentas no cuidado ao paciente.
Diretrizes recentes reforçam que sistemas de IA devem complementar, e não substituir, o raciocínio clínico. Além disso, pacientes e profissionais precisam ser informados quando essas ferramentas estiverem sendo utilizadas, como forma de preservar confiança na relação médico-paciente.
O que muda na prática
A principal mudança não está na adoção da tecnologia em si, mas na forma como ela é incorporada à prática assistencial.
A inteligência artificial deve funcionar como ferramenta de apoio, mantendo o médico como responsável final pela decisão clínica. Isso exige postura ativa, senso crítico e compreensão das limitações dos sistemas.
Mais do que dominar a tecnologia, passa a ser essencial saber quando questioná-la.
Autoria

Daniela Cristina Cardoso Lima Estrella
Possui graduação em Medicina pela Universidade Estácio de Sá (2019). Tem experiência na área de Medicina, com ênfase em Clínica Médica, Dermatologia Sanitária e Cirúrgica e Medicina de Emergência.
Como você avalia este conteúdo?
Sua opinião ajudará outros médicos a encontrar conteúdos mais relevantes.