Contents

Por que confiar no ChatGPT para atendimento pediátrico é uma receita para o desastre!

/images/361e54dc50cb80f4a4ba5cb4e3efc94ac6aaf3b97eda7958aaa908ecd2cad769.jpg A substituição dos pediatras pela IA não é para amanhã © Studio Romantic

Se você não confia totalmente no Doctissimo para diagnosticar as doenças que você sofre, também não confie no ChatGPT quando se trata de diagnosticar seu filho.

A publicação acima mencionada no estimado Journal of the American Medical Association, divisão pediátrica, fornece uma demonstração exemplar das limitações do ChatGPT como um substituto para consultar um clínico geral em relação a preocupações relativas ao bem-estar de seus filhos.

Diagnóstico errado em 83% dos casos

A investigação avaliou cem casos de doenças pediátricas onde o modelo de linguagem de IA conhecido como ChatGPT, em sua iteração 4.0, falhou em aproximadamente 83% das avaliações diagnósticas. Aproximadamente 72% das respostas fornecidas pelo chatbot foram consideradas erradas, enquanto nos 11% restantes o bot forneceu um diagnóstico incompleto, mas insuficiente. Esta pesquisa surge após uma publicação anterior de julho de 2023, revelando que o ChatGPT demonstrou erros em cerca de 61% dos diagnósticos relativos a cenários médicos complexos.

A precisão limitada do ChatGPT no diagnóstico de condições pediátricas pode ser atribuída, em parte, à sua incapacidade de inferir e avaliar informações com base nos relatórios sintomáticos incompletos e muitas vezes não confiáveis ​​fornecidos pelas crianças, que contrastam com os dados mais abrangentes e precisos fornecidos por pacientes adultos. Os resultados da investigação enfatizam que, ao avaliar casos pediátricos, é essencial considerar não apenas os sintomas apresentados, mas também a idade do indivíduo como um factor integral para se chegar a uma determinação conclusiva.

Embora a inteligência artificial tenha avançado significativamente nos últimos anos, ainda enfrenta limitações no estabelecimento de conexões entre certas questões predominantes. Um exemplo de tal descuido ocorreu quando o ChatGPT não conseguiu estabelecer uma correlação entre o autismo e as deficiências vitamínicas, apesar do facto de os indivíduos afectados por perturbações do espectro do autismo apresentarem frequentemente níveis reduzidos de nutrientes essenciais. Lamentavelmente, durante outro incidente envolvendo a mesma plataforma, o sistema de IA identificou erroneamente uma condição autoimune rara em vez de identificar com precisão o problema médico real em questão.

A IA está deixando sua marca na medicina

Não é nenhuma surpresa que o ChatGPT encontre dificuldades em fornecer diagnósticos médicos precisos. Isto pode ser atribuído à sua dependência de grandes quantidades de dados obtidos de diversas fontes, incluindo a Internet, que podem incluir informações cientificamente sólidas e não confiáveis. Como resultado, o sistema de IA não teve outra escolha senão contentar-se com quaisquer dados aos quais pudesse aceder, em vez de se aprofundar na literatura científica especializada que poderia ter fornecido informações mais abrangentes. Além disso, parece que o ChatGPT não foi concebido especificamente para tarefas relacionadas com diagnóstico médico, levantando questões sobre a sua adequação para tais esforços.

Na verdade, tem havido uma tendência crescente para a utilização de modelos linguísticos de base ampla no setor da saúde, como evidenciado por pesquisas recentes. Uma abordagem potencial para resolver esta questão pode envolver o desenvolvimento de um sistema de inteligência artificial especificamente concebido para fins de diagnóstico de condições médicas, com a capacidade de aceder e analisar grandes quantidades de literatura científica actual. No entanto, permanece incerto se tal tecnologia substituirá totalmente os médicos humanos no futuro imediato.

Fonte: Jama Pediatrics via Ars Technica

*️⃣ Link da fonte:

outro publicado em julho de 2023 , Jama Pediatrics , Ars Technica ,