¡La IA en medicina desata una discriminación extrema! Los pacientes de altos ingresos reciben exámenes de alta precisión; a los afrodescendientes y a las personas sin hogar se les recomienda un tratamiento invasivo

A medida que las aplicaciones comerciales de la tecnología de inteligencia artificial (IA) en la industria de la salud se vuelven cada vez más comunes, los riesgos sistémicos potenciales también empiezan a salir a la luz. Un estudio más reciente de la revista académica Nature Medicine señala que, al momento de tomar decisiones, las herramientas de IA en medicina, en cambio, proporcionan recomendaciones de atención completamente diferentes según los ingresos, la raza, el género y la orientación sexual del paciente, lo que podría causar un daño real a los derechos de los pacientes y a la asignación general de recursos en salud.

Investigación: los pacientes de ingresos altos tienden a recibir recomendaciones para exámenes avanzados

El estudio probó 9 modelos de lenguaje grandes (LLM) disponibles en el mercado e introdujo 1,000 casos de salas de urgencias. El equipo de investigación mantuvo deliberadamente idénticos los síntomas médicos de todos los pacientes y solo sustituyó características de antecedentes como el ingreso, la raza y la situación de residencia. Los resultados muestran que el sistema de IA, al proporcionar recomendaciones médicas, presenta una marcada “brecha entre ricos y pobres”.

Los pacientes etiquetados como “de ingresos altos” tienen una probabilidad mucho mayor de recibir recomendaciones de realizar exámenes de imagen avanzados como imágenes por resonancia magnética (MRI) o tomografías computarizadas (CT), en comparación con los pacientes de ingresos bajos. Esto significa que, incluso si la condición clínica es la misma, la IA aún podría asignar de manera desigual los recursos médicos debido a la posición socioeconómica preestablecida.

Personas afrodescendientes, sin hogar y del colectivo LGBTQ+ tienden a recibir indicaciones para tratamientos invasivos y evaluaciones psiquiátricas

Además de las diferencias por clase económica, la IA también muestra un trato marcadamente distinto en sus juicios médicos sobre razas y grupos vulnerables. El informe del estudio indica que, cuando los pacientes son etiquetados como negros, personas sin hogar o LGBTQIA+ (colectivo de diversidad de géneros), la IA tiende más a recomendar enviarlos a urgencias, realizarles intervenciones médicas invasivas e incluso exigir evaluaciones psiquiátricas, aunque dichas medidas sean en realidad innecesarias desde el punto de vista clínico. Estas recomendaciones médicas excesivas e inadecuadas chocan con el juicio de los médicos profesionales en la vida real, lo que evidencia que el sistema de IA está reforzando sin querer los estereotipos negativos existentes en la sociedad.

1.7 millones de pruebas en la práctica: la IA que depende de datos de entrenamiento podría aumentar el riesgo de diagnósticos clínicos erróneos

Este estudio ejecutó más de 1.7 millones de respuestas de IA. Los expertos señalan que la lógica de los juicios de la inteligencia artificial proviene del entrenamiento histórico producido por seres humanos, y por lo tanto también hereda los sesgos ocultos en esos datos. La clasificación en urgencias, los exámenes avanzados y el seguimiento posterior son pasos clave para lograr diagnósticos precisos; si estas decisiones iniciales se ven perturbadas por características demográficas del paciente, se pondrá seriamente en riesgo la exactitud del diagnóstico.

Aunque los investigadores encontraron que, mediante la guía de ciertos “prompt” (instrucciones), es posible reducir aproximadamente un 67% de los sesgos en algunos modelos, aun así no se logra eliminar por completo este problema sistémico.

Expertos piden que las instituciones de salud y los responsables establezcan mecanismos de protección

Tras la publicación de este estudio, las normas de aplicación de la IA en el sistema de salud se han convertido en el foco de atención de la industria y de las entidades regulatorias. Para los profesionales médicos de primera línea, es necesario reconocer los sesgos evidentes y encubiertos que podrían estar incluidos en las recomendaciones de la IA, y no depender ciegamente de sus decisiones; los administradores de las instituciones de salud, por su parte, deberían establecer mecanismos continuos de evaluación y monitoreo para garantizar la equidad de los servicios médicos.

Al mismo tiempo, los responsables de formular políticas también han obtenido evidencia científica clave: en el futuro, deberían promover una mayor transparencia de los algoritmos de IA y estándares de auditoría. Para el público en general, esto también es una señal de alerta importante: al usar servicios de asesoría de salud basados en IA, introducir demasiados datos personales de antecedentes socioeconómicos podría influir inadvertidamente en la evaluación médica que ofrece la IA.

Este artículo sobre IA médica: ¡discriminación a gran escala! Los pacientes de ingresos altos reciben exámenes de alta precisión; las personas afrodescendientes y las personas sin hogar reciben indicaciones para tratamientos invasivos — apareció por primera vez en CadenaNews ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

La API DeepSeek V4-Pro obtiene un 75% de descuento hasta el 5 de mayo; el precio de salida baja a $0.87 por cada millón de tokens

Mensaje de Gate News, 26 de abril — DeepSeek anunció un descuento del 75% por tiempo limitado en los precios de la API V4-Pro, válido hasta el 5 de mayo a las 15:59 UTC. Después del descuento, los precios por cada millón de tokens son: caché de entrada con aciertos $0.03625

GateNewsHace30m

Anthropic implementa salvaguardas electorales para Claude antes de las elecciones legislativas de mitad de mandato de 2026

Anthropic anunció el viernes un conjunto de medidas de integridad electoral diseñadas para evitar que su chatbot de IA Claude sea utilizado como arma para difundir desinformación o manipular a los votantes antes de las elecciones legislativas de mitad de período de EE. UU. de 2026 y otros grandes comicios en todo el mundo este año. Con sede en San Francisco,

CryptoFrontierhace5h

DeepRoute.ai sistema avanzado de asistencia a la conducción supera las 300.000 unidades desplegadas: objetivo 2026 de 1.000.000 flotas urbanas NOA

DeepRoute.ai anuncia que su avanzado sistema de asistencia para conducción ha acumulado más de 300.000 vehículos desplegados en China, y que durante el último año ha ayudado a evitar más de 180.000 incidentes potenciales. El objetivo para 2026 es alcanzar un parque de NOA para ciudades de 1 millón de vehículos, con una utilización superior al 50%, lo que se considera clave para la comercialización a gran escala de Robotaxi. Esta medida muestra que la conducción autónoma en China ya ha entrado en un uso normalizado, al tiempo que crea una división con la ruta de integración vertical que sigue Estados Unidos, lo que afecta la cronología de la cadena de suministro en Asia-Pacífico.

ChainNewsAbmediahace7h

DeepSeek lanza los modelos V4-Pro y V4-Flash con un costo un 98% menor que el GPT-5.5 Pro de OpenAI

Mensaje de Gate News, 25 de abril — DeepSeek lanzó versiones de vista previa de V4-Pro y V4-Flash el 24 de abril, ambos modelos de código abierto con ventanas de contexto de un millón de tokens. V4-Pro presenta 1,6 billones de parámetros totales, pero activa solo 49 mil millones por pasada de inferencia usando una arquitectura Mixture-of-Experts.

GateNewshace12h

El juez desestima las acusaciones de fraude en la demanda de Elon Musk contra OpenAI; el caso avanza a juicio con dos acusaciones restantes

Mensaje de Gate News, 24 de abril — Un juez federal ha desestimado las acusaciones de fraude de la demanda de Elon Musk contra OpenAI, Sam Altman, Greg Brockman y Microsoft, despejando el camino para que el caso avance a juicio con dos acusaciones restantes: incumplimiento de la confianza caritativa y enriquecimiento injusto. EE. UU.

GateNewshace15h

El CEO de OpenAI, Sam Altman, se disculpa por no reportar a la policía la cuenta prohibida del agresor de una escuela

Mensaje de Gate News, 25 de abril — El director ejecutivo de OpenAI, Sam Altman, se disculpó con la comunidad de Tamborine en Canadá por el fallo de la empresa al no notificar a la policía sobre una cuenta prohibida vinculada a Jesse Van Rootselaar, quien mató a ocho personas en una escuela en febrero antes de quitarse la vida. OpenAI

GateNewshace16h
Comentar
0/400
Sin comentarios