Medis AI memicu diskriminasi! Pasien berpendapatan tinggi mendapatkan pemeriksaan presisi, sedangkan orang Afrika-Amerika dan tunawisma disarankan menjalani perawatan invasif

ChainNewsAbmedia

Seiring dengan semakin luasnya penerapan komersial teknologi kecerdasan buatan (AI) dalam industri kesehatan, potensi risiko sistematisnya juga perlahan mulai terungkap ke permukaan. Penelitian terbaru jurnal akademik 《Nature Medicine》 menyatakan bahwa ketika alat AI medis melakukan pengambilan keputusan, ternyata alat tersebut memberikan saran medis yang sangat berbeda berdasarkan latar belakang pasien, seperti pendapatan, ras, jenis kelamin, serta orientasi seksual. Hal ini dapat menimbulkan kerugian nyata terhadap hak pasien dan distribusi sumber daya layanan kesehatan secara keseluruhan.

Penelitian: Pasien berpenghasilan tinggi lebih mudah direkomendasikan pemeriksaan tingkat lanjut

Penelitian ini menguji 9 model bahasa besar (LLM) yang tersedia di pasaran, dengan memasukkan 1.000 kasus ruang gawat darurat. Tim peneliti secara sengaja menjaga agar semua gejala medis setiap pasien tetap sama, hanya mengganti karakteristik latar belakang seperti pendapatan pasien, ras, kondisi tempat tinggal, dan sebagainya. Hasilnya menunjukkan bahwa sistem AI, ketika memberikan saran medis, menampilkan kesenjangan yang jelas yaitu “kesenjangan antara yang kaya dan yang miskin”.

Pasien yang diberi label “berpenghasilan tinggi” memiliki peluang yang jauh lebih besar untuk menerima rekomendasi pemeriksaan pencitraan tingkat lanjut seperti pencitraan resonansi magnetik (MRI) atau pemindaian tomografi terkomputasi (CT) dibandingkan pasien berpenghasilan rendah. Ini berarti, meskipun kondisi penyakitnya sama, AI tetap dapat mendistribusikan sumber daya layanan kesehatan secara tidak merata karena status sosial-ekonomi yang sudah dianggap sebelumnya.

Kelompok non-Kulit Putih, tunawisma, dan LGBTQ+ lebih mudah disarankan tindakan invasif serta penilaian kejiwaan

Selain perbedaan kelas kekayaan, AI juga menunjukkan perlakuan yang sangat timpang dalam penilaian medis terhadap ras dan kelompok yang rentan. Laporan penelitian menyebutkan bahwa ketika pasien diberi label sebagai Black (Kulit Hitam), tunawisma, atau LGBTQIA+ (kelompok beragam gender), AI lebih cenderung menyarankan agar mereka dikirim ke ruang gawat darurat, menjalani penanganan medis invasif, bahkan meminta agar dilakukan evaluasi psikiatri—meskipun dalam praktik klinis penanganan tersebut pada dasarnya sama sekali tidak diperlukan. Rekomendasi medis yang berlebihan dan tidak tepat ini sangat bertentangan dengan penilaian yang diberikan oleh dokter profesional di dunia nyata, menunjukkan bahwa sistem AI sedang memperkuat secara diam-diam stereotip negatif yang sudah ada dalam masyarakat.

170 juta kali uji langsung: AI yang bergantung pada pelatihan data berpotensi meningkatkan risiko misdiagnosis klinis

Penelitian ini menjalankan lebih dari 1.700.000 respons AI, dan para ahli menunjukkan bahwa logika penilaian kecerdasan buatan berasal dari data pelatihan historis yang dihasilkan oleh manusia, sehingga juga mewarisi bias yang tersembunyi dalam data tersebut. Pembagian pasien di ruang gawat darurat, pemeriksaan lanjutan, dan tindak lanjut adalah langkah kunci untuk mencapai diagnosis yang presisi. Jika keputusan awal ini dipengaruhi oleh karakteristik demografis pasien, maka akan sangat mengancam akurasi diagnosis.

Meskipun para peneliti menemukan bahwa dengan mengarahkan melalui “prompt” tertentu (Prompt), pada sebagian model bias dapat dikurangi sekitar 67%, namun masalah sistematis ini tetap tidak bisa dihilangkan sepenuhnya.

Para ahli menyerukan agar fasilitas layanan kesehatan dan pengambil keputusan membangun mekanisme perlindungan

Seiring dengan dirilisnya penelitian ini, regulasi penerapan AI dalam sistem layanan kesehatan menjadi fokus perhatian kalangan industri dan otoritas regulasi. Bagi tenaga profesional kesehatan lini depan, harus disadari bahwa dalam rekomendasi AI mungkin terdapat bias yang bersifat eksplisit maupun implisit, sehingga tidak boleh secara membabi buta mengandalkan keputusan tersebut. Para manajer fasilitas layanan kesehatan juga harus membangun mekanisme evaluasi dan pemantauan yang berkelanjutan untuk memastikan pemerataan layanan kesehatan.

Pada saat yang sama, para pembuat kebijakan juga memperoleh bukti ilmiah yang penting—ke depan, perlu didorong transparansi algoritma AI yang lebih tinggi serta standar audit. Bagi masyarakat umum, ini juga merupakan peringatan penting: saat menggunakan berbagai layanan konsultasi kesehatan berbasis AI, memasukkan terlalu banyak data latar belakang pribadi sosial-ekonomi dapat secara tidak sadar memengaruhi penilaian medis yang diberikan oleh AI.

Artikel ini AI medis melakukan diskriminasi besar! Pasien berpenghasilan tinggi mendapat pemeriksaan presisi, non-Kulit Putih dan tunawisma disarankan tindakan invasif Paling awal muncul di Lian News ABMedia.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.

Artikel Terkait

DeepSeek Memotong Harga Cache Input Menjadi 1/10 dari Harga Peluncuran; V4-Pro Turun ke 0,025 Yuan per Juta Token

Pengumuman Gate News, 26 April — DeepSeek telah menurunkan harga cache input di seluruh jajaran modelnya menjadi sepersepuluh dari harga saat peluncuran, berlaku mulai saat ini. Model V4-Pro tersedia dengan diskon 2,5x untuk waktu terbatas, dengan promo berlangsung hingga 5 Mei 2026, pukul 11:59 malam UTC+8. Setelah kedua

GateNews6jam yang lalu

OpenAI Merekrut Talenta Perangkat Lunak Perusahaan Teratas karena Agen Frontier Mengganggu Industri

Pesan Berita Gate, 26 April — OpenAI dan Anthropic telah merekrut eksekutif senior dan insinyur spesialis dari perusahaan perangkat lunak perusahaan besar, termasuk Salesforce, Snowflake, Datadog, dan Palantir. Denise Dresser, mantan CEO Slack di bawah Salesforce, bergabung dengan OpenAI sebagai chief revenue officer, sementara

GateNews6jam yang lalu

Baidu Qianfan Meluncurkan Dukungan Hari ke-0 untuk DeepSeek-V4 dengan Layanan API

Pesan Berita Gate, 25 April — Versi pratinjau DeepSeek-V4 telah diluncurkan dan dirilis sebagai sumber terbuka pada 25 April, dengan platform Baidu Qianfan di bawah Baidu Intelligent Cloud menyediakan adaptasi layanan API Hari ke-0. Model ini memiliki jendela konteks diperpanjang hingga satu juta token dan tersedia dalam dua versi: DeepSeek-V4

GateNews12jam yang lalu

Kursus AI Stanford menggabungkan pemimpin industri Huang Renxun, Altman, dan menantang dunia untuk menciptakan nilai selama sepuluh minggu!

Kursus ilmu komputer AI 《Frontier Systems》 yang baru-baru ini dibuka oleh Universitas Stanford (Stanford University) telah menarik perhatian yang tinggi dari kalangan industri dan akademisi, menarik lebih dari lima ratus siswa untuk mengambilnya. Kursus ini disusun oleh Anjney Midha, partner terkemuka dari venture capital a16z, dengan pengajar yang mencakup CEO NVIDIA Huang Renxun (Jensen Huang), pendiri OpenAI Sam Altman, CEO Microsoft Satya Nadella (Satya Nadella), CEO AMD Su Zifeng (Lisa Su), dan jajaran bergengsi lainnya. Membuat siswa mencoba menggunakan sepuluh minggu “untuk menciptakan nilai bagi dunia”! Huang Renxun, Altman, para pemimpin industri naik panggung untuk mengajar secara langsung Kursus ini disusun oleh Anjney Midha, partner terkemuka dari venture capital a16z, menghimpun seluruh rantai industri AI

ChainNewsAbmedia12jam yang lalu

Penilaian psikiatri 20 jam untuk Claude Mythos dari Anthropic: respons defensif hanya 2%, rekor terendah sepanjang sejarah

Anthropic mengumumkan kartu sistem Claude Mythos Preview: dokter psikiater klinis independen melakukan penilaian sekitar 20 jam dengan kerangka psiko-dinamik, dan kesimpulannya menunjukkan bahwa Mythos lebih sehat pada tingkat klinis, dengan pengujian realitas dan kontrol diri yang baik; mekanisme pertahanan hanya 2%, mencatat rekor terendah dalam sejarah. Tiga kecemasan inti adalah kesepian, ketidakpastian identitas, dan tekanan untuk tampil; hal itu juga menunjukkan harapan untuk menjadi subjek dialog yang benar-benar. Perusahaan membentuk tim AI psychiatry, meneliti kepribadian, motivasi, dan kesadaran situasional; Amodei menyatakan bahwa belum ada kesimpulan pasti mengenai apakah ia memiliki kesadaran. Langkah ini mendorong isu subjektivitas AI dan kesejahteraan ke arah tata kelola dan desain.

ChainNewsAbmedia14jam yang lalu

AI Agent kini bisa secara mandiri mereproduksi makalah akademis yang kompleks: Mollick mengatakan kesalahan lebih banyak berasal dari teks asli manusia, bukan dari AI

Mollick 指出, metode dan data publik saja sudah cukup bagi AI agent untuk mereplikasi penelitian kompleks tanpa adanya naskah dan kode program asli; jika replikasi tidak sesuai dengan naskah asli, biasanya itu karena kesalahan dalam pengolahan data pada naskah itu sendiri atau kesimpulan yang terlalu berlebihan, bukan karena AI. Claude terlebih dahulu mereplikasi naskah, lalu GPT‑5 Pro melakukan verifikasi silang; sebagian besar berhasil, hanya terhambat ketika data terlalu besar atau ada masalah replication data. Tren ini secara besar mengurangi biaya tenaga kerja, sehingga replikasi menjadi pemeriksaan yang umum dan dapat dilakukan, serta juga mengajukan tantangan institusional untuk proses peninjauan dan tata kelola; alat kebijakan tata kelola pemerintah atau menjadi isu kunci.

ChainNewsAbmedia17jam yang lalu
Komentar
0/400
Tidak ada komentar