Contents

Erros de diagnóstico de IA impedem que ChatGPT substitua médicos reais

contém o conteúdo principal do bloco de texto da caixa de compartilhamento do cabeçalho da página

ChatGPT, a famosa IA generativa, foi testada quanto à sua capacidade de diagnosticar casos médicos pediátricos. Os resultados não são realmente promissores, especialmente para doenças que afetam crianças.

/images/212022286_m.jpg Crédito: 123RF

Um estudo publicado esta semana na JAMA Pediatrics mostra que o ChatGPT-4, a versão mais recente do chatbot, só alcançou uma taxa de precisão de 17% quando confrontado com o diagnóstico de 100 casos raros. Esta taxa está bem abaixo da precisão de 39% obtido pelo ChatGPT-3 em um teste semelhante no ano passado.

O estudo, liderado por pesquisadores do Cohen Children’s Medical Center, em Nova York, destaca as limitações e os desafios do uso de chatbots de IA para diagnósticos complexos, especialmente para crianças. Os pesquisadores ressaltam que os casos pediátricos exigem maior atenção à idade do paciente. e estágio de desenvolvimento, bem como mais habilidades de comunicação para provocar sintomas nas crianças ou em seus pais.

** Leia também **-ChatGPT salva a vida de um cachorro após diagnóstico incorreto do veterinário

ChatGPT ainda está longe de conseguir substituir os médicos

Os pesquisadores usaram 100 casos pediátricos publicados no JAMA Pediatrics e no NEJM entre 2013 e 2023. Esses casos foram projetados para testar as habilidades de diagnóstico dos médicos porque envolviam condições incomuns ou incomuns que exigiam análise e raciocínio cuidadosos. Os pesquisadores encaminharam o texto dos casos ao ChatGPT e solicitaram o diagnóstico. Dois pesquisadores médicos avaliaram então as respostas do chatbot e as classificaram como corretas, incorretas ou parcialmente corretas.

ChatGPT acertou apenas em 17 casos, enquanto errou em 72 casos e parcialmente certo em 11 casos. Casos parcialmente corretos são aqueles em que o ChatGPT deu um diagnóstico relacionado ao diagnóstico correto, mas era muito vago ou geral para ser considerado preciso.

Os pesquisadores também notaram que ChatGPT teve dificuldade em identificar relações entre diferentes patologias que um médico humano reconheceria facilmente. Por exemplo, o ChatGPT não conseguiu relacionar o autismo e o escorbuto, ambos associados à deficiência de vitamina C. O ChatGPT também cometeu erros relacionados ao mesmo sistema orgânico, como confundir pedras nos rins e câncer renal.

Os investigadores propõem que o aumento da proficiência do ChatGPT pode ser alcançado através da exposição à literatura médica e do aumento da disponibilidade de informações médicas atuais. Na verdade, temos testemunhado casos em que a IA identificou doenças que anteriormente não tinham sido detectadas por uma equipa de dezassete médicos. Consequentemente, é plausível que a inteligência artificial possa superar certos profissionais de saúde em termos de especialização num período relativamente curto.

/end Classificação do TextBlock ********************NOTAS ** ** ** ** ** ** ** ** ** ** * **** ****************************** Classificação Julio Paginação/Paginação Julio Nextprev-post Artigo anterior seção seção Taboola da área de classificação

*️⃣ Link da fonte: