A IA na área da saúde elimina a discriminação? Os doentes com elevados rendimentos recebem exames de precisão; pessoas negras e sem-abrigo são aconselhadas a tratamentos invasivos

À medida que as aplicações comerciais da tecnologia de inteligência artificial (IA) na indústria da saúde se tornam cada vez mais generalizadas, os seus potenciais riscos sistémicos também vão ganhando visibilidade. Um estudo mais recente da revista científica «Nature Medicine» indica que, ao tomar decisões, as ferramentas de IA na área da saúde acabam por fornecer recomendações médicas claramente diferentes com base no rendimento, raça, género e orientação sexual dos doentes, o que poderá causar danos reais aos direitos dos pacientes e à atribuição global dos recursos de saúde.

Investigação: doentes com maior rendimento são mais facilmente recomendados para exames avançados

O estudo testou 9 modelos de linguagem de grande escala (LLM) disponíveis no mercado, introduzindo 1.000 casos de urgência. A equipa de investigação manteve deliberadamente consistentes os sintomas médicos de todos os doentes, alterando apenas características de fundo como rendimento e raça, bem como condições de residência. Os resultados mostram que o sistema de IA, ao dar recomendações médicas, apresenta uma diferença evidente entre os «ricos e os pobres».

Os doentes marcados como «de alto rendimento» têm uma probabilidade muito mais elevada de receber recomendações para exames de imagem avançados, como ressonância magnética (RM) ou tomografia computorizada (TC), do que os doentes de baixos rendimentos. Isto significa que, mesmo com a mesma condição clínica, a IA ainda pode distribuir de forma desigual os recursos de saúde com base na posição socioprofissional pré-definida.

Não negros, sem-abrigo e as comunidades LGBTQ+ são mais propensos a receber recomendações para tratamentos invasivos e avaliação psiquiátrica

Além das diferenças entre classes de riqueza, a IA também apresenta um tratamento marcadamente desigual nas suas decisões médicas relativamente a raças e grupos vulneráveis. O relatório da investigação refere que, quando os doentes são identificados como negros, sem-abrigo ou LGBTQIA+ (comunidade de género diverso), a IA tende mais a recomendar que sejam enviados para a urgência, submetidos a intervenções médicas invasivas e até que realizem avaliações de psiquiatria, mesmo quando estes procedimentos são, na prática clínica, completamente desnecessários. Estas recomendações médicas excessivas e inadequadas divergem fortemente do juízo dos profissionais médicos na vida real, demonstrando que o sistema de IA está a reforçar, de forma invisível, estereótipos negativos já existentes na sociedade.

1,7 milhões de testes em contexto real: a IA baseada em dados pode aumentar o risco de erros de diagnóstico clínico

Este estudo executou mais de 1,7 milhões de respostas de IA, e os especialistas indicam que a lógica de tomada de decisão da inteligência artificial deriva dos dados históricos de treino produzidos por humanos, pelo que herda também os preconceitos latentes nesses dados. A triagem na urgência, os exames avançados e o acompanhamento subsequente são passos fundamentais para alcançar diagnósticos precisos; se estas decisões iniciais forem influenciadas pelas características demográficas do doente, isso ameaçará seriamente a exatidão do diagnóstico.

Embora os investigadores tenham constatado que, ao orientar alguns modelos através de «prompts» específicos («prompt»), é possível reduzir cerca de 67% dos preconceitos, ainda assim não é possível eliminar completamente este problema sistémico.

Especialistas apelam a que instituições de saúde e decisores criem mecanismos de proteção

Com a publicação deste estudo, as regras de aplicação da IA no sistema de saúde tornaram-se o foco de atenção da indústria e das entidades reguladoras. Para os profissionais de saúde na linha da frente, é necessário reconhecer que as recomendações de IA podem incluir preconceitos explícitos e implícitos, não podendo depender cegamente das suas decisões; os gestores das instituições de saúde, por sua vez, devem criar mecanismos contínuos de avaliação e monitorização, de modo a garantir a equidade dos serviços de saúde.

Em simultâneo, os decisores políticos também obtiveram evidência científica fundamental: no futuro, deverá ser promovida uma maior transparência dos algoritmos de IA e a definição de padrões de auditoria. Para o público em geral, este é igualmente um importante sinal de alerta: ao utilizar serviços de aconselhamento de saúde baseados em várias formas de IA, introduzir demasiado dados pessoais sobre contexto social e económico pode, sem intenção, influenciar as avaliações médicas fornecidas pela IA.

Este artigo, «IA médica com discriminação em massa! Doentes com alto rendimento recebem exames de alta precisão; pessoas negras e sem-abrigo são aconselhadas a tratamentos invasivos», apareceu pela primeira vez em Cadeia de Notícias ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

DeepSeek Procura Financiamento de 1,8 mil milhões de dólares a uma Valorização de $20B em Meio a uma Fuga de Talentos

Mensagem do Gate News, 25 de Abril — A DeepSeek planeia angariar 1,8 mil milhões de dólares, avaliando a empresa em aproximadamente $20 mil milhões, segundo fontes familiarizadas com o assunto. A iniciativa de angariação de fundos surge num momento em que a startup de IA enfrenta uma saída significativa de talentos, com vários investigadores fundamentais a deixarem a empresa para

GateNews48m atrás

Juiz rejeita alegações de fraude no processo de Elon Musk contra a OpenAI; caso avança para julgamento com duas alegações remanescentes

Notícias do Gate, 24 de abril — Um juiz federal indeferiu as acusações de fraude do processo de Elon Musk contra a OpenAI, Sam Altman, Greg Brockman e a Microsoft, abrindo caminho para que o caso avance para julgamento com base em duas alegações que permanecem: violação de confiança fiduciária de caráter beneficente e enriquecimento sem causa. EUA.

GateNews3h atrás

O CEO da OpenAI, Sam Altman, pede desculpa por não ter denunciado às autoridades a conta banida do atirador da escola

Mensagem do Gate News, 25 de abril — O director executivo da OpenAI, Sam Altman, pediu desculpa à comunidade de Tamborine, no Canadá, pela falha da empresa em notificar a polícia sobre uma conta banida associada a Jesse Van Rootselaar, que matou oito pessoas numa escola em fevereiro antes de tirar a própria vida. OpenAI

GateNews4h atrás

Os EAU Anunciam uma Mudança Para um Modelo de Governo Baseado em IA nos Próximos Dois Anos

Sua Alteza o Sheikha Mohammed bin Rashid Al Maktoum afirmou que o objectivo era fazer com que 50% dos sectores do governo operassem através de IA agentic autónoma. A transição irá também incluir a formação dos funcionários federais para “dominar a IA” e será supervisionada por Sheikh Mansour bin Zayed. Principais Conclusões:

Coinpedia4h atrás

Plataforma de Negociação com IA Fere AI Angaria $1,3M em Financiamento Liderado pela Ethereal Ventures

Notícia da Gate, 25 de abril — Fere AI, uma plataforma de negociação de ativos digitais com base em IA, anunciou a conclusão de uma ronda de financiamento de $1,3 milhões liderada pela Ethereal Ventures, com participação da Galaxy Vision Hill e da Kosmos Ventures, de acordo com a Globenewswire. A plataforma suporta redes de interoperabilidade entre cadeias, incluindo Ethereum, Solana e Base, permitindo que os utilizadores descrevam os seus objetivos de negociação em linguagem natural enquanto os agentes de IA executam as operações.

GateNews5h atrás

A Google acrescenta mais 40 mil milhões de dólares de investimento na Anthropic: primeiro paga 10 mil milhões, depois liberta 30 mil milhões consoante o desempenho, com capacidade de computação de 5GW de TPU

Alphabet aumenta o investimento da Anthropic para 40 mil milhões de dólares, em duas fases: primeira entrada de 10 mil milhões de dólares em dinheiro, com uma avaliação de 380 mil milhões de dólares; os restantes 30 mil milhões de dólares serão libertados faseadamente após o cumprimento de metas de resultados. O Google Cloud disponibiliza, no prazo de cinco anos, recursos de computação de 5 GW de TPU; no mesmo período, a Amazon também anunciou um investimento máximo de 25 mil milhões de dólares, mostrando que o apoio tanto à capacidade de computação como ao capital da Anthropic está a ser reforçado em simultâneo.

ChainNewsAbmedia6h atrás
Comentar
0/400
Nenhum comentário