OlĆ” pessoal,
Essa foi uma semana intensa de discussão sobre o papel dos LLMs (modelos de linguagem), como o chatGPT, no apoio ao diagnóstico de doenças.
Estou comeƧando a ver dois grupos sendo formados:
Quem acredita que essa tecnologia pode ajudar o médico a chegar ao diagnóstico do paciente
Quem acredita que isso não faz diferença ou pode até atrapalhar
Mas quem estĆ” certo?
Ou Ć© cedo para dizer ainda?
Tempo de leitura : 5 minutos
š¬ Em pauta
Na semana passada, eu fui na escritório da Alice (healthtech - plano de saúde) para falar sobre como a IA estÔ sendo avaliada e implementada em 3 grandes frentes de atuação:

Os cases que eu tenho visto mais sucesso são:
- Co-pilotos médicos com transcrição e sumarização da consulta
- Agentes IA apoiando com agendamento de consulta automatizada
- Processamento automatizado de guias e autorizações para planos de saúde

Agora a Ć”rea de pesquisa que tem gerado mais atenção da comunidade mĆ©dica e na mĆdia Ć© relacionada ao uso do chatGPT para aumentar a acurĆ”cia diagnóstica.
Isso acontece porque mesmo um ganho incremental na nossa acurÔcia em saúde pode resultar em um impacto enorme no cuidado e custos, jÔ que os erros diagnósticos podem chegar a 5% dos casos, afetando quase 12 milhões de pacientes só nos EUA.
Em 2023, alguns estudos foram publicados mostrando que o chatGPT e o seu primo do Google especializado em saĆŗde, med-palm 2 (recentemente batizado de Med-Gemini), poderiam responder perguntas e casos clĆnicos de provas de validação de diploma mĆ©dico, ou atĆ© mesmo provas de tĆtulo de especialista.
Neste estudo, o med-palm 2 tirou a nota 86.5% na prova de validação do diploma médico americano, o que resultaria em uma aprovação.
Mas o que gerou uma ampla discussão foi um estudo pequeno publicado no JAMA Open em Outubro, que comparou a performance de um grupo de 50 médicos usando o chatGPT para ajudar a chegar no diagnóstico, versus as ferramentas convencionais, como Uptodate, google e artigos.
Caso clĆnico real que os mĆ©dicos responderam:
āUm homem de 76 anos procura seu mĆ©dico de atenção primĆ”ria queixando-se de dor nas costas e nas coxas hĆ” 2 semanas. Ele nĆ£o sente dor ao sentar ou deitar, mas caminhar causa dor severa na regiĆ£o lombar, glĆŗteos e panturrilhas. Ele se sente febril e cansado. O cardiologista que o encaminhou informou que seus testes recentes, realizados desde o inĆcio da dor, mostraram anemia nova e azotemia. Alguns dias antes do inĆcio da dor, ele havia se submetido a uma angioplastia coronariana. Heparina foi administrada por 48 horas.ā
O resultado mostrou:
Quando os médicos tentavam resolver os casos sozinhos, eles acertaram 74% dos diagnósticos
Quando eles podiam pedir ajuda ao chatGPT 4o

Olha que interessanteā¦
A mĆdia interpretou de 2 formas distintas:
āO chatGPT ajuda pouco os mĆ©dicos para diagnosticar doenƧas" (Washington post)
āO chatGPT derrota os mĆ©dicos no diagnóstico de doenƧasā (New York times)
Acho que Ć© a primeira vez que eu vejo um estudo considerado pequeno (50 participantes), com uma avaliação limitada (apesar de ser um ensaio clĆnico randomizado), ter tanta repercussĆ£o na mĆdia e na comunidade de saĆŗde.
Mas afinal, como o chatGPT conseguiu ter uma performance maior que os mƩdicos?
Precisamos falar sobre alguma limitaƧƵes do estudo:
A jornada de cuidado e do diagnóstico não é tão preto no branco quanto um resumo. Na vida real temos diversas particularidades e nuances que não são refletidas diretamente na descrição.
Neste estudo, metade dos médicos eram residentes (48%), a maior parte dos médicos não tinha experiência com o chatGPT (84%) e acabavam fazendo perguntas (prompts) que não usavam o melhor da tecnologia.
Talvez essa interação nĆ£o precise ser sĆncrona, ou seja, o mĆ©dico nĆ£o precisa usar a ferramenta ao mesmo tempo em que executa o seu processo decisório. Pode ser algo que jĆ” Ć© processado de forma autĆ“noma e chega para o mĆ©dico meio que pronto, assim ele inicia a sua avaliação com esse dado extra na mĆ£o.
Ou seja, nĆ£o Ć© possĆvel bater o martelo de que os chatGPT Ć© melhor que mĆ©dicos na avaliação diagnóstica.
De forma geral, acho que ainda temos muito para evoluir em relação ao "co-piloto mĆ©dicoā com apoio diagnóstico, ao contrĆ”rio de algumas outras frentes, em que estamos chegando no momento de consolidação, como na transcrição, sumarização e geração de documentos.
No suporte Ć decisĆ£o clĆnica, provavelmente precisamos de mais estudos e testes antes de batermos o martelo sobre o melhor formato.
AlĆ©m disso, o chatGPT nĆ£o foi criado para resolver casos clĆnicos e chegar em diagnósticos precisos, ou seja, imagine o potencial quando tivermos plataformas que foram desenvolvidas com esse fim, evitando alucinaƧƵes e erros.
Um exemplo disso Ć© a plataforma Glass AI, que usa LLMs como base (chatGPT), mas foi criada com o intuito especĆfico de apoiar a jornada diagnóstica.
Como você acredita que serÔ o futuro da nossa avaliação diagnóstica?
Só me reponder direto nesse e-mail : ) Quero saber a sua opinião!
āļø RecomendaƧƵes
Como as pessoas vão usar Gen AI no trabalho?
Essa edição da HBR aborda detalhes sobre como as empresas estão implantando IA generativa nas tarefas diÔrias do escritório. Vale a leitura.
Desafio a IA generativa
Neste vĆdeo, o Benedict Evans, um analista independente, faz uma avaliação do papel da IA generativa na nossa sociedade e seu impacto. Ele Ć© mais realista / pessimista, mas gostei da forma como ele traz os dados e compara a onda atual com outros movimentos de tecnologia do passado, como a internet.
š Citação
Eu tenho usado essa dica do Andrew Huberman para concentração. Ć o āwhite noiseā, que vocĆŖ consegue encontrar no youtube e ajuda a manter o foco, principalmente em escritório presencial : )

Via Readwise
Por hoje é só!
Mandem feedbacks, é só responder esse e-mail.
Se vocĆŖ achou o conteĆŗdo interessante, compartilhe.
Domingo que vem tem mais,
AbraƧo!
Thiago Liguori


Gif by snl on Giphy






