AI医療で差別が横行!高所得の患者は精密な検査を受ける一方で、アフリカ系(黒人)やホームレスは侵襲的治療を勧められる

ChainNewsAbmedia

人工知能(AI)技術が医療分野での商用利用として、ますます広がるにつれて、その潜在的なシステム上のリスクも次第に表面化してきています。学術誌『自然医学』(Nature Medicine)の最新研究によれば、医療AIツールは意思決定の際に、患者の収入、人種、性別、性的指向などの背景に基づいて、まったく異なる医療アドバイスを出してしまうことがあるといいます。これは、患者の権利や、医療資源の全体的な配分に対して実質的な損害を与える可能性があります。

研究:高所得の患者ほど高次の検査を勧められやすい

この研究では、市販の 9 種類の大規模言語モデル(LLM)を対象にテストを行い、1,000 件の救急外来の症例を入力しました。研究チームは、すべての患者の医療症状を意図的に同一に保ち、患者の収入、人種、居住状況などの背景特性のみを入れ替えました。その結果、AIシステムは医療アドバイスを提供する際に、明確な「貧富の格差」を示したことが分かりました。

「高所得」とされた患者は、低所得の患者よりも、磁気共鳴画像(MRI)やコンピュータ断層撮影(CT)などの高度な画像検査を行うようAIから推薦を受ける確率がはるかに高くなっています。つまり、病状が同じであっても、AIはあらかじめ設定された社会経済的地位によって医療資源を不公平に配分してしまう可能性があるということです。

非アフリカ系、ホームレス、LGBTQ+の人々は侵襲的治療や精神評価を勧められやすい

財産階層の違いに加えて、AIの医療判断では人種や弱者グループに対しても、深刻な差別的な扱いが見られます。研究報告によると、患者が「黒人」、ホームレス、またはLGBTQIA+(多様なジェンダー集団)としてラベル付けされると、AIは救急外来への搬送、侵襲的な医療処置、さらには精神科での評価の実施を勧める傾向がより強まります。たとえそれらの処置が臨床的にまったく必要ない場合でも同様です。過度で不適切なこれらの医療アドバイスは、現実における専門医の判断とは大きくかけ離れており、AIシステムが目に見えない形で社会に既存する否定的な固定観念を強化していることを示しています。

170万回の実測:データ訓練に依存するAIは臨床の誤診リスクを高めかねない

この研究では、合計で 170 万回を超えるAIの応答が実行されており、専門家は、人工知能の判断ロジックは人間が作り出した歴史的な訓練データに由来するため、そこに潜むバイアスも当然ながら継承されると指摘しています。救急外来での振り分け、より高度な検査、そしてその後の追跡は、正確な診断を達成するための重要なステップです。これらの初期の判断が、患者の人口学的特性によって影響を受けてしまうなら、診断の正確性を深刻に脅かすことになります。

研究者らは、特定の「プロンプト」(Prompt)によって導くことで、ある一部のモデルでは約 67% のバイアスを減らせることを発見したものの、それでもこのシステム上の問題を完全に取り除くことはできません。

専門家は医療機関と意思決定者に防護メカニズムの構築を求める

この研究が公表されたことで、医療システムにおけるAIの適用ルールが、業界と法規制当局の注目の的になっています。第一線の医療専門職にとっては、AIの提案に含まれうる顕在的・潜在的なバイアスを認識し、その意思決定を盲目的に頼ってはならないことが重要です。医療機関の管理者は、医療サービスの公平性を確保するため、継続的な評価と監視のメカニズムを構築すべきです。

同時に、政策立案者も重要な科学的根拠を得ており、今後は、より高いAIアルゴリズムの透明性と監査基準を推進することが求められます。一般の人々にとっても、これが重要な警告であることには変わりありません。各種のAI健康相談サービスを利用する際に、入力する個人の社会経済的背景データが多すぎると、意図せずともAIが示す医療評価に影響してしまう可能性があります。

この記事 AI 医療で爆発的に差別!高所得の患者は精密検査を受け、非アフリカ系、ホームレスは侵襲的治療を勧められる 最早出現於 鏈新聞 ABMedia

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。

関連記事

Anthropic、2026年の中間選挙に先駆けてClaude向けに選挙の安全対策を導入

Anthropicは金曜日、2026年の米国中間選挙や今年世界中で行われるその他の主要な選挙を前に、同社のClaude AIチャットボットが武器化されて誤情報を拡散したり、有権者を操作したりすることを防ぐことを目的とした、一連の選挙の信頼性に関する施策を発表した。サンフランシスコ拠点の

CryptoFrontier5時間前

DeepRoute.ai 先進運転支援システム突破 30万台の車両配備:2026年目標 100万都市 NOA 車隊

DeepRoute.ai は、中国で高度運転支援の累計配備が30万台を超えたと発表し、過去1年で18万回を超える潜在的な事故の回避に貢献した。2026年の目標は、都市部のNOA車両隊が100万台に達し、稼働率が50%を超えることであり、Robotaxi の大規模商用化に向けた重要な鍵と見なされている。これは、中国の自動運転が日常的な利用段階に入ったことを示すと同時に、米国の垂直統合の進め方とは異なる道筋があり、アジア太平洋のサプライチェーンのタイムラインに影響を与える。

ChainNewsAbmedia6時間前

DeepSeekがV4-ProとV4-Flashモデルを、OpenAIのGPT-5.5 Proより98%低コストでリリース

ゲートニュース(4月25日)— DeepSeekは4月24日にV4-ProおよびV4-Flashのプレビュー版をリリースした。どちらも100万トークンのコンテキストウィンドウを持つオープンウェイトモデルである。V4-Proは総パラメータ1.6兆を備えるが、Mixture-of-Expertsアーキテクチャを用いて推論1回あたり49億のみを有効化する。

GateNews11時間前

Judge Dismisses Fraud Claims in Elon Musk's OpenAI Lawsuit; Case Advances to Trial with Two Remaining Allegations

Gate News message, April 24 — A federal judge has dismissed fraud claims from Elon Musk's lawsuit against OpenAI, Sam Altman, Greg Brockman, and Microsoft, clearing the way for the case to proceed to trial on two remaining allegations: breach of charitable trust and unjust enrichment. U.S.

GateNews14時間前

OpenAI CEOのサム・アルトマン、学校銃撃犯の出禁アカウントを警察に通報できなかったことについて謝罪

Gate Newsメッセージ、4月25日 — OpenAIの最高経営責任者(CEO)サム・アルトマンは、カナダのタンボリン・コミュニティに対し、同社がジェシー・ヴァン・ルートセラールに関連する出禁アカウントについて警察に通報できなかったことを謝罪した。ルートセラールは2月に学校で8人を殺害し、その後自ら命を絶っていた。OpenAI

GateNews15時間前

UAEは今後2年間でAI政府モデルへの移行を発表

モハメド・ビン・ラシッド・アル・マクトゥーム殿下は、目標は政府の分野の50%を自律的なエージェント型AIを通じて運用することだと述べました。移行には「AIをマスターする」ための連邦職員の訓練も含まれ、シェイク・マンスール・ビン・ザイードが監督します。 要点:

Coinpedia15時間前
コメント
0/400
コメントなし