OlĆ” pessoal,

Essa foi uma semana intensa de discussão sobre o papel dos LLMs (modelos de linguagem), como o chatGPT, no apoio ao diagnóstico de doenças.

Estou comeƧando a ver dois grupos sendo formados:

  • Quem acredita que essa tecnologia pode ajudar o mĆ©dico a chegar ao diagnóstico do paciente

  • Quem acredita que isso nĆ£o faz diferenƧa ou pode atĆ© atrapalhar

Mas quem estĆ” certo?

Ou Ć© cedo para dizer ainda?

Tempo de leitura : 5 minutos

šŸ’¬ Em pauta

Na semana passada, eu fui na escritório da Alice (healthtech - plano de saúde) para falar sobre como a IA estÔ sendo avaliada e implementada em 3 grandes frentes de atuação:

Os cases que eu tenho visto mais sucesso são:

- Co-pilotos médicos com transcrição e sumarização da consulta
- Agentes IA apoiando com agendamento de consulta automatizada
- Processamento automatizado de guias e autorizações para planos de saúde

Agora a Ôrea de pesquisa que tem gerado mais atenção da comunidade médica e na mídia é relacionada ao uso do chatGPT para aumentar a acurÔcia diagnóstica.

Isso acontece porque mesmo um ganho incremental na nossa acurÔcia em saúde pode resultar em um impacto enorme no cuidado e custos, jÔ que os erros diagnósticos podem chegar a 5% dos casos, afetando quase 12 milhões de pacientes só nos EUA.

Em 2023, alguns estudos foram publicados mostrando que o chatGPT e o seu primo do Google especializado em saúde, med-palm 2 (recentemente batizado de Med-Gemini), poderiam responder perguntas e casos clínicos de provas de validação de diploma médico, ou até mesmo provas de título de especialista.

Neste estudo, o med-palm 2 tirou a nota 86.5% na prova de validação do diploma médico americano, o que resultaria em uma aprovação.

Mas o que gerou uma ampla discussão foi um estudo pequeno publicado no JAMA Open em Outubro, que comparou a performance de um grupo de 50 médicos usando o chatGPT para ajudar a chegar no diagnóstico, versus as ferramentas convencionais, como Uptodate, google e artigos.

Caso clƭnico real que os mƩdicos responderam:

ā

ā€œUm homem de 76 anos procura seu mĆ©dico de atenção primĆ”ria queixando-se de dor nas costas e nas coxas hĆ” 2 semanas. Ele nĆ£o sente dor ao sentar ou deitar, mas caminhar causa dor severa na regiĆ£o lombar, glĆŗteos e panturrilhas. Ele se sente febril e cansado. O cardiologista que o encaminhou informou que seus testes recentes, realizados desde o inĆ­cio da dor, mostraram anemia nova e azotemia. Alguns dias antes do inĆ­cio da dor, ele havia se submetido a uma angioplastia coronariana. Heparina foi administrada por 48 horas.ā€

- Os casos tambƩm eram acompanhados de exame fƭsico e resultados laboratoriais.

O resultado mostrou:

  • Quando os mĆ©dicos tentavam resolver os casos sozinhos, eles acertaram 74% dos diagnósticos

  • Quando eles podiam pedir ajuda ao chatGPT 4o

Olha que interessante…

A mĆ­dia interpretou de 2 formas distintas:

  • ā€œO chatGPT ajuda pouco os mĆ©dicos para diagnosticar doenƧas" (Washington post)

  • ā€œO chatGPT derrota os mĆ©dicos no diagnóstico de doenƧasā€ (New York times)

Acho que é a primeira vez que eu vejo um estudo considerado pequeno (50 participantes), com uma avaliação limitada (apesar de ser um ensaio clínico randomizado), ter tanta repercussão na mídia e na comunidade de saúde.

Mas afinal, como o chatGPT conseguiu ter uma performance maior que os mƩdicos?

Precisamos falar sobre alguma limitaƧƵes do estudo:

  1. A jornada de cuidado e do diagnóstico não é tão preto no branco quanto um resumo. Na vida real temos diversas particularidades e nuances que não são refletidas diretamente na descrição.

  2. Neste estudo, metade dos médicos eram residentes (48%), a maior parte dos médicos não tinha experiência com o chatGPT (84%) e acabavam fazendo perguntas (prompts) que não usavam o melhor da tecnologia.

  3. Talvez essa interação não precise ser síncrona, ou seja, o médico não precisa usar a ferramenta ao mesmo tempo em que executa o seu processo decisório. Pode ser algo que jÔ é processado de forma autÓnoma e chega para o médico meio que pronto, assim ele inicia a sua avaliação com esse dado extra na mão.

Ou seja, não é possível bater o martelo de que os chatGPT é melhor que médicos na avaliação diagnóstica.

De forma geral, acho que ainda temos muito para evoluir em relação ao "co-piloto mĆ©dicoā€ com apoio diagnóstico, ao contrĆ”rio de algumas outras frentes, em que estamos chegando no momento de consolidação, como na transcrição, sumarização e geração de documentos.

No suporte à decisão clínica, provavelmente precisamos de mais estudos e testes antes de batermos o martelo sobre o melhor formato.

Além disso, o chatGPT não foi criado para resolver casos clínicos e chegar em diagnósticos precisos, ou seja, imagine o potencial quando tivermos plataformas que foram desenvolvidas com esse fim, evitando alucinações e erros.

Um exemplo disso é a plataforma Glass AI, que usa LLMs como base (chatGPT), mas foi criada com o intuito específico de apoiar a jornada diagnóstica.

Como você acredita que serÔ o futuro da nossa avaliação diagnóstica?

Só me reponder direto nesse e-mail : ) Quero saber a sua opinião!

ā‡ļø RecomendaƧƵes

Como as pessoas vão usar Gen AI no trabalho?

Essa edição da HBR aborda detalhes sobre como as empresas estão implantando IA generativa nas tarefas diÔrias do escritório. Vale a leitura.

Desafio a IA generativa

Neste vídeo, o Benedict Evans, um analista independente, faz uma avaliação do papel da IA generativa na nossa sociedade e seu impacto. Ele é mais realista / pessimista, mas gostei da forma como ele traz os dados e compara a onda atual com outros movimentos de tecnologia do passado, como a internet.

šŸ’­ Citação

Eu tenho usado essa dica do Andrew Huberman para concentração. Ɖ o ā€œwhite noiseā€, que vocĆŖ consegue encontrar no youtube e ajuda a manter o foco, principalmente em escritório presencial : )

Por hoje é só!

Mandem feedbacks, é só responder esse e-mail.

Se vocĆŖ achou o conteĆŗdo interessante, compartilhe.

Domingo que vem tem mais,

AbraƧo!

Thiago Liguori

Gif by snl on Giphy

Continue lendo