A inteligência artificial (IA) na saúde tem ganhado cada vez mais destaque com o surgimento dos grandes modelos de linguagem (LLMs), como o ChatGPT e o Open AI, e está transformando a assistência médica e as interações médico-paciente.
Esses modelos conseguem compreender e gerar textos em linguagem natural, similares aos produzidos por humanos, a partir de uma enorme quantidade de dados, o que tem contribuído em várias áreas da saúde.
Como os LLMs são usados na saúde?
Os LLMs estão sendo usados para melhorar diagnósticos, facilitar a interpretação de dados clínicos, auxiliar na educação de pacientes, para gerenciar projetos de saúde e até auxiliar em pesquisas e revisões de literatura na área médica. Por isso, a comunidade médica tem demonstrado entusiasmo com o potencial desses modelos para melhorar eficiência, qualidade e resultados para os pacientes na assistência.
Porém, os LLMs ainda não apresentam um rigor metodológico de validação, principalmente pela novidade das técnicas e a ausência de diretrizes claras sobre como utilizá-los.
A validação dos LLMs no campo da saúde é necessária para garantir que essas tecnologias sejam seguras e éticas em suas aplicações. Quando a validação não é feita corretamente, o modelo pode fornecer informações erradas ou incompletas, o que pode gerar riscos para os pacientes.
Por que a validação é tão importante?
A validação dos LLMs é importante para garantir que eles forneçam respostas confiáveis e precisas em contextos clínicos. Estudos já demonstraram que esses modelos ainda apresentam limitações significativas em termos de raciocínio clínico e precisão diagnóstica, e até mesmo em relação a falta de dados reais de pacientes em testes anteriores.
Além disso, alguns estudos apontaram que os LLMs podem perpetuar discriminação racial na assistência médica e fornecer resultados prejudiciais quando não moderados por humanos com conhecimentos da área.
Com base nessas inseguranças que podem surgir em relação aos grandes modelos de linguagem, de Hold et al (2024), no artigo From text to treatment: the crucial role of validation for generative large language models in health care, propõe a discussão sobre a necessidade de validações replicáveis e repetidas dos LLMs para garantir um desempenho seguro desses modelos ao longo do tempo na assistência médica.
Pontos-chave para validação dos LLMs na saúde
Ao avaliar os resultados desses modelos na área da saúde, devem ser considerados quatro pontos principais para validação de LLMs:
- Escolha de métricas e medições de qualidade. Como existem várias tarefas de geração de linguagem e respostas desses modelos, não há forma única de definir as métricas de validação. Isso pode levar a conclusões diferentes sobre as validações.
- Design de estudos de avaliação humana. As métricas de validação automática são rápidas e eficientes, mas não conseguem substituir a avaliação humana. O ideal é combinar as duas abordagens para um resultado mais confiável.
- Validação do uso pretendido do LLM. É importante comparar os resultados do modelo com as práticas de rotina na assistência médica, para garantir que ele funcione de forma segura, pois eles nem sempre são revisados por humanos.
- Relato dos resultados da validação. Compartilhar na forma de relato sistemático os detalhes sobre como a validação foi feita é importante para que outros pesquisadores possam replicar os testes e confiar nos resultados.
Níveis de validação dos LLMs na saúde
O processo de validação para LLMs em assistência médica deve abranger três níveis, conforme sugere Hold et al (2024):
- Validação geral: o objetivo é verificar a qualidade geral do modelo, sem se preocupar com tarefas específicas. O importante é ver se o modelo consegue responder de forma clara e coerente as diferentes perguntas.
- Validação específica da tarefa: o foco neste nível é validar o desempenho em tarefas específicas. Por exemplo, se o modelo for usado para resumir informações, deve-se garantir que seja fiel ao conteúdo original e inclua os conceitos clínicos relevantes.
- Validação do impacto clínico: este nível depende dos objetivos clínicos e do uso pretendido do modelo, como melhorar os resultados dos pacientes, economizar tempo ou otimizar processos de trabalho.
O papel dos médicos na validação LLMs
Não é possível negar que os LLMs estão transformando as práticas médicas e a área da saúde como um todo. A maneira como os médicos diagnosticam, tratam e gerenciam o atendimento e a compreensão do paciente já está sendo impactada por essas mudanças. Agora, é importante estar atento aos caminhos para garantir a confiabilidade e a precisão dos resultados gerados por esses modelos.
Para evitar erros e informações incompletas, o processo de validação precisa ser rigoroso e ocorrer em contextos clínicos reais, com a participação ativa dos médicos para revisar e ajustar as respostas geradas pelos modelos. Isso vai ajudar a garantir que os LLMs tragam benefícios futuros para a medicina sem comprometer a segurança dos pacientes.
Como você avalia este conteúdo?
Sua opinião ajudará outros médicos a encontrar conteúdos mais relevantes.