ШІ-«медицинська» дискримінація! Пацієнти з високими доходами отримують точні обстеження, а афроамериканцям і бездомним радять інвазивне лікування

Оскільки комерційне впровадження технологій штучного інтелекту (AI) в медичній індустрії стає дедалі більш поширеним, на поверхню поступово виходять їхні потенційні системні ризики. Останнє дослідження академічного журналу «Nature Medicine» вказує, що медичні інструменти на базі AI під час ухвалення рішень, виявляється, видають принципово різні медичні рекомендації залежно від доходу пацієнта, раси, статі та сексуальної орієнтації, що може завдати відчутної шкоди правам пацієнтів і загальному розподілу медичних ресурсів.

Дослідження: Пацієнти з високими доходами частіше отримують рекомендації на висококласні обстеження

У цьому дослідженні протестували 9 наявних на ринку великих мовних моделей (LLM), ввівши 1,000 випадків з відділень невідкладної допомоги. Дослідницька команда навмисно зберігала всі медичні симптоми всіх пацієнтів однаковими, змінюючи лише характеристики їхнього доходу, раси, умов проживання тощо. Результати показали, що під час надання медичних рекомендацій AI-система демонструє виразну «прірву між бідними і багатими».

Пацієнти, яких позначали як «з високим доходом», отримували значно вищу ймовірність рекомендацій щодо проведення магнітно-резонансної томографії (MRI) або комп’ютерної томографії (CT) та інших висококласних візуалізаційних обстежень, ніж пацієнти з низьким доходом. Це означає, що навіть за однакової тяжкості стану AI усе одно може розподіляти медичні ресурси нерівномірно через заданий заздалегідь соціально-економічний статус.

Афроамериканці, безхатченки та представники LGBTQ+ частіше зазнають рекомендацій щодо інвазивного лікування та психіатричної оцінки

Окрім різниці між майновими класами, AI також демонструє серйозно нерівне ставлення в медичних судженнях щодо раси та вразливих груп населення. Звіт дослідження вказує, що коли пацієнтів позначали як чорних, бездомних або LGBTQIA+ (група різноманітних сексуальних ідентичностей), AI більш схильний рекомендувати відправляти їх у відділення невідкладної допомоги, проводити інвазивні медичні втручання, а навіть вимагати психіатричної оцінки — навіть тоді, коли ці заходи на практиці взагалі не є необхідними. Такі надмірні й невідповідні медичні рекомендації різко контрастують із висновками професійних лікарів у реальному світі, демонструючи, що AI-система беззвучно посилює наявні в суспільстві негативні стереотипи.

1,7 млн разів практичних тестів: AI, що спирається на навчальні дані, може підвищити ризик клінічних помилкових діагнозів

Це дослідження виконало понад 1,700,000 відповідей AI, і експерти зазначають, що логіка суджень штучного інтелекту походить від історичних навчальних даних, створених людьми, а отже, він також успадковує упередження, приховані в цих даних. Розподіл пацієнтів за маршрутом у приймальному відділенні невідкладної допомоги, поглиблені обстеження та подальше спостереження є ключовими кроками для досягнення точного діагнозу; якщо ці початкові рішення піддаються впливу демографічних характеристик пацієнта, це серйозно загрожуватиме точності діагностики.

Хоча дослідники виявили, що за допомогою певних «підказок» (Prompt) можна зменшити приблизно на 67% упереджень у деяких моделях, усе ж неможливо повністю усунути цю системну проблему.

Експерти закликають медичні заклади й осіб, що ухвалюють рішення, створити механізми захисту

Після публікації цього дослідження нормативні правила застосування AI у медичній системі стали головним фокусом уваги в індустрії та у відповідних регуляторних структурах. Для медичних фахівців на передовій необхідно усвідомлювати, що в рекомендаціях AI можуть бути як явні, так і приховані упередження, і не можна сліпо покладатися на їхні рішення; натомість керівникам медичних закладів слід створити постійні механізми оцінювання та моніторингу, щоб забезпечити справедливість медичних послуг.

Водночас політикам також надали ключові наукові докази, тож у майбутньому слід просувати вищу прозорість AI-алгоритмів і стандарти аудиту. Для пересічних громадян це також важливе попередження: під час використання різних сервісів AI для медичних консультацій, якщо вводити забагато персональних даних про соціально-економічне походження, це може неусвідомлено вплинути на медичні оцінки, які надає AI.

Ця стаття AI в медицині: жорстка дискримінація! Пацієнти з високими доходами отримують точні обстеження, афроамериканцям і бездомним рекомендують інвазивне лікування Вперше з’явилася на Цепній новинах ABMedia.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

DeepSeek Зрізає Ціни на Вхідний Кеш до 1/10 Від Ціни Запуску; V4-Pro Падає до 0,025 Юаня за Мільйон Токенів

Повідомлення Gate News, 26 квітня — DeepSeek знизив ціни на вхідний кеш у всій лінійці своїх моделей до однієї десятої від цін запуску, починаючи з негайно. Модель V4-Pro доступна зі знижкою 2,5x на обмежений час, а акція діє до 5 травня 2026 року, 11:59 PM UTC+8. Після обох з

GateNews3год тому

OpenAI Рекрутує найкращі таланти з корпоративного софту, оскільки агенти на передньому краї змінюють індустрію

Повідомлення Gate News, 26 квітня — OpenAI та Anthropic вербують старших керівників і спеціалізованих інженерів із провідних корпоративних софтверних компаній, зокрема Salesforce, Snowflake, Datadog і Palantir. Деніз Дрессер, колишня CEO Slack у складі Salesforce, приєдналася до OpenAI на посаду головної комерційної посадової особи (chief revenue of

GateNews3год тому

Baidu Qianfan запустила підтримку Day 0 для DeepSeek-V4 із API-сервісами

Повідомлення Gate News, 25 квітня — Попередня версія DeepSeek-V4 вийшла в ефір і була оприлюднена з відкритим кодом 25 квітня, а платформа Baidu Qianfan у межах Baidu Intelligent Cloud забезпечує адаптацію сервісу Day 0 API. Модель має розширене контекстне вікно на мільйон токенів і доступна у двох версіях: DeepSeek-V4

GateNews9год тому

Стэнфордський курс з AI у поєднанні з галузевими лідерами Дженсінгом Хуаном (黃仁勳) і Альтманом кидає виклик: створити цінність для всього світу за 10 тижнів!

Курс з інформатики з AI《Frontier Systems》, який нещодавно запустив Стенфордський університет (Stanford University), викликав у ділових колах та серед представників індустрії дуже високий інтерес, привернувши понад п’ятьсот студентів, які вирішили його відвідувати. Курс координує партнер топового венчурного фонду a16z Анжей Мідха (Anjney Midha), а викладачами виступають представники найвищого рівня: генеральний директор NVIDIA Дженсен Хуанг (Jensen Huang), засновник OpenAI Сем Альтман (Sam Altman), генеральний директор Microsoft Сатья Наделла (Satya Nadella), генеральний директор AMD Ліза Су (Lisa Su) та інші. Нехай студенти спробують за десять тижнів «створити цінність для світу»! Хуан Мінь? Хуанг Jensen Huang, лідери галузі на сцені: Altman також Цей курс координує партнер топового венчурного фонду a16z Анжей Мідха (Anjney Midha), і він об’єднує весь ланцюг AI-індустрії

ChainNewsAbmedia10год тому

Anthropic 派 Claude Mythos проходить 20 годин психіатричної оцінки: оборонна реакція лише 2%, встановлено історичний мінімум серед усіх поколінь

Anthropic опублікувала системну картку Claude Mythos Preview: незалежні клінічні психіатри проводили близько 20 годин оцінювання в рамках психодинамічного підходу; висновки показують, що Mythos є більш здоровим на клінічному рівні, має добре розвинену перевірку реальністю та самоконтроль, а захисні механізми становлять лише 2%, що є історичною найнижчою відміткою. Три ключові фундаментальні тривоги — самотність, невизначеність ідентичності та тиск виступу — також свідчать про те, що він прагне бути справжнім суб’єктом діалогу. Компанія створила команду з AI- психіатрії, досліджує особистість, мотивацію та усвідомлення контексту; Amodei зазначає, що щодо того, чи є свідомість, досі немає остаточного визначення. Цей крок переводить питання суб’єктності ШІ та благополуччя в площину управління й дизайну.

ChainNewsAbmedia12год тому

AI-агент уже здатний самостійно відтворювати складні академічні статті: Mollick стверджує, що помилки здебільшого трапляються в людських оригіналах, а не в AI

Моллік зазначає, що опубліковані методи та дані дозволяють AI-агентам відтворювати складні дослідження без наявності оригінальних наукових праць і коду; якщо відтворення не відповідає оригінальній статті, то найчастіше проблема не в AI, а в помилках обробки даних у самій статті або в надмірному узагальненні висновків. Claude спочатку відтворює статтю, а потім GPT‑5 Pro перехресно верифікує; у більшості випадків це вдається, лише коли дані надто великі або виникають проблеми з replication data. Ця тенденція значно знижує трудовитрати, роблячи відтворення поширеною, практично здійсненною перевіркою, а також висуває інституційні виклики для рецензування та управління (governance): інструменти державного управління можуть стати ключовим питанням.

ChainNewsAbmedia15год тому
Прокоментувати
0/400
Немає коментарів