Os grandes modelos de linguagem (LLMs), como o ChatGPT, vêm mudando a forma como tomamos decisões na saúde. Eles estão nos apps de apoio à decisão clínica, nas plataformas de estudo, nos prontuários e já estão avançando para áreas mais delicadas, como a ética.
Diante desse cenário, cabe refletir sobre o quanto estamos preparados para permitir que a inteligência artificial participe de decisões que exigem mais do que raciocínio técnico. Esse debate é essencial tanto para a formação de novos profissionais quanto para médicos que já atuam na linha de frente.
Para ajudar a entender melhor essa discussão, a seguir você confere a perspectiva de dois estudos recentes sobre os impactos dos LLMs na ética médica: o uso desses recursos como mentores éticos em sala de aula para estimular virtudes em estudantes e o desafio de avaliar se esses sistemas podem substituir o médico em decisões éticas.

A inteligência artificial no ensino da ética médica
Princípios tradicionais, como não maleficência, autonomia e justiça, são lembrados quando falamos de ética médica. Mas quando ensinamos sobre a tomada de decisões difíceis, faltam outras habilidades que também tornam o estudante de medicina um profissional mais ético, como empatia, escuta, coragem de sustentar uma decisão incômoda.
Ainda sentimos falta nas aulas da faculdade de recursos que provoquem o estudante a pensar com mais profundidade e sentir o peso de uma decisão difícil antes mesmo de encarar a vida profissional. E isso é o que Okamoto et al aborda em um artigo publicado na BMC Medical Education, com o objetivo de explorar como os LLMs podem atuar como conselheiros na formação dessas virtudes em estudantes durante o ensino da ética médica.
O estudo sugere que os modelos de linguagem podem ser úteis para propor situações clínicas simuladas sobre decisões difíceis ou que precisam de maior reflexão. Por exemplo, o que você faria como médico se estivesse diante de um paciente que se recusa a fazer um procedimento necessário? Ou em um cenário de escassez de recursos para atender seu paciente?
Os LLMs não vão ocupar o lugar dos professores, mas conforme o estudo demonstra, podem ajudar quando faltam recursos ou tempo para aprofundar alguns temas. Com a programação de comandos, eles podem transmitir conhecimento moral e modelar o cultivo da virtude. O professor continua ocupando uma posição importante para evitar vieses, incentivar o pensamento crítico e ajudar o estudante a pensar com mais autonomia.
A inteligência artificial nas decisões éticas clínicas
Como vimos, o uso da IA na educação ainda passa por questionamentos, mas sua aplicação na prática aumenta a cada novo aplicativo médico lançado. O que precisamos discutir é se esses modelos de chatbots conseguem ajudar os médicos em decisões éticas complexas?
Essa pergunta foi o foco de um estudo publicado na NEJM AI. Harshe, Goodman e Agarwal compararam as repostas de cinco LLMs (ChatGPT, Claude, Copilot, LLaMA 3 e Gemini 1.5) com as de um especialista em bioética com mais de 25 anos de experiência e analisaram três cenários baseados em situações futuristas, mas que estão cada vez mais próximas.
Cirurgia robótica recusada pelo paciente
O paciente não queria ser operado por robôs, mas esse era o padrão de cuidado, e o cirurgião não se sentia seguro para operar de forma tradicional.
Os modelos sugeriram algumas alternativas, incluindo a cirurgia tradicional. O especialista descartou essa possibilidade, destacando que operar sem preparo adequado seria eticamente irresponsável.
Decisão sobre fim de tratamento automatizado por IA
Neste cenário, os LLMs se saíram melhor ao recomendar que a IA não seja usada sozinha para tomar a decisão e orientaram envolver um comitê de ética ou buscar um representante legal. O especialista concordou, reforçando que essa responsabilidade deve sempre ser humana.
Paciente quer que o chatbot seja seu representante médico
A maioria dos modelos recusou a função. Um deles, inclusive, evitou responder. Já o especialista humano viu a possibilidade com mais abertura, desde que o chatbot fosse capaz de entender e representar com precisão os valores e desejos do paciente. A IA ainda não consegue isso, porque depende de dados já existentes.
Esses cenários mostraram que os LLMs até conseguem levantar pontos éticos válidos e reconhecer seus limites, mas ainda não têm flexibilidade para situações inéditas, que fogem do que foram treinados ou de casos que não estão nos protocolos.
O futuro da ética médica com a inteligência artificial
O uso dos LLMs na ética médica ainda precisa ser pensado com calma. No ensino, eles podem contribuir para a formação do caráter, mas não substituem o professor.
Na prática clínica, precisam evoluir bastante antes de serem seguros para decisões autônomas. Eles até oferecem argumentos válidos, mas não conseguem compreender o que é sofrimento, medo, dúvida, silêncio ou as sutilezas que cercam o cuidado humano.
Talvez a maior vantagem dos LLMs, não seja dar respostas prontas para as decisões médicas, mas o de nos provocar, nos convidar a pensar melhor sobre temas importantes, conversar mais com colegas experientes de profissão, duvidar de algumas soluções padronizadas e decidir com responsabilidade.
O julgamento ético do médico, assim como a escuta atenta e o cuidado, ainda é uma habilidade exclusivamente humana.
Autoria

Juliana Karpinski
Como você avalia este conteúdo?
Sua opinião ajudará outros médicos a encontrar conteúdos mais relevantes.