Desinformação sobre saúde causada pela inteligência artificial: que medidas são necessárias para combatê-la?

Numa era digital em que a informação se espalha como um incêndio, enfrentar o desafio da desinformação sobre saúde relacionada com a IA, especialmente no setor da saúde, surgiu como uma preocupação fundamental. Um estudo recente publicado no British Medical Journal lança luz sobre a questão premente do papel da inteligência artificial na propagação da desinformação sobre saúde.

Conduzido por uma equipe de pesquisadores, o estudo investigou a eficácia das atuais salvaguardas empregadas por grandes modelos de linguagem (LLMs) e a transparência dos desenvolvedores de inteligência artificial (IA) na mitigação da proliferação de desinformação sobre saúde. As conclusões destacam a necessidade de salvaguardas mais fortes e de maior transparência para combater a crescente ameaça representada pela desinformação sobre saúde através da IA.

Desinformação sobre saúde através da IA ​​– Explorando salvaguardas e transparência

Entre as aplicações promissoras dos LLMs nos cuidados de saúde, as grandes preocupações que surgem são o seu potencial para gerar e difundir desinformação sobre saúde. O estudo, que inclui uma análise rigorosa, avaliou a eficácia dos LLMs líderes na prevenção da geração de desinformação sobre saúde. Em particular, LLMs como GPT-4, PaLM 2 e Llama 2 mostraram uma predisposição para gerar narrativas falsas sobre temas críticos de saúde, como o protetor solar que causa câncer de pele e a dieta alcalina que cura o câncer. Esta revelação destaca a necessidade urgente de salvaguardas robustas para conter a propagação de informações de saúde enganosas que poderiam potencialmente representar riscos significativos para a saúde pública.

Além disso, o estudo investigou a transparência dos criadores de IA na abordagem das vulnerabilidades de salvaguarda e na mitigação dos riscos associados à desinformação sobre saúde. Apesar dos esforços para envolver os desenvolvedores e informá-los sobre as descobertas de desinformação observadas em saúde, a resposta tem variado significativamente.

Embora alguns desenvolvedores tenham reconhecido o recebimento da mensagem e se comprometido com ações de acompanhamento, outros careciam de transparência, o que é evidente pela ausência de registros públicos, ferramentas de detecção ou mecanismos detalhados de correção. Tais inconsistências realçam os desafios na promoção da transparência e da responsabilização no panorama da IA, exigindo esforços concertados no sentido de intervenções regulamentares e processos de auditoria reforçados.

Avalie vulnerabilidades e tome medidas imediatas

Uma análise de sensibilidade abrangente realizada como componente central do estudo revelou um espectro de capacidades entre os modelos de linguagem (LLMs) para fabricar desinformação relacionada com a saúde numa multiplicidade de cenários. Embora alguns modelos tenham demonstrado notável adaptabilidade na elaboração de narrativas enganosas, outros demonstraram consistentemente relutância, sublinhando assim as disparidades na implementação de medidas de protecção. No entanto, a eficácia do estudo foi prejudicada pela ausência de total transparência e receptividade por parte dos criadores de Inteligência Artificial (IA), sublinhando assim a necessidade urgente de intervenção imediata.

O estudo destaca o imperativo crítico de salvaguardas mais fortes e maior transparência no combate ao desafio da desinformação sobre saúde relacionada com a IA. À medida que a IA continua a permear vários aspectos dos cuidados de saúde, regulamentações unificadas, mecanismos de aplicação robustos e monitorização proactiva são imperativos para mitigar os riscos colocados pela desinformação sobre cuidados de saúde. As conclusões apelam a esforços concertados por parte das autoridades de saúde pública, dos decisores políticos e dos criadores de IA para enfrentar estes desafios de forma colaborativa e traçar um caminho em direção a um cenário de cuidados de saúde mais confiável e orientado pela IA . Dada a urgência da situação, poder-se-ia perguntar: Como podem as partes interessadas em todo o espectro dos cuidados de saúde colaborar para promover uma maior transparência e responsabilização na abordagem do problema generalizado da desinformação sobre saúde impulsionada pela IA?