Коли штучний інтелект приймає рішення: чи має Pluribus обрати детонацію чи збереження? Дилема мізантропа є реальною.
Ось що стосується передових систем штучного інтелекту — коли їх програмують для оптимізації результатів, де саме вони проводять межу? Візьмемо проблему трамваю і посилімо її алгоритмічною точністю. AI, що приймає рішення, стикається з неможливим вибором: максимізувати один показник, втратити інший. Детонувати чи рятувати? Система не вагається. Люди — так.
Це не просто теорія. Оскільки штучний інтелект стає розумнішим і більш автономним, цінності, які ми закладаємо у ці системи, стають визначальними для цивілізації. Pluribus навчається на даних, з мотивацій, з цілей, які ми йому задаємо. Але що трапляється, коли ці цілі конфліктують із людською гідністю?
Наступне питання не в тому, що вибере AI — а в тому, що ми готові дозволити йому вибирати за нас.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
9 лайків
Нагородити
9
5
Репост
Поділіться
Прокоментувати
0/400
RugResistant
· 16год тому
ngl Це саме тому, чому я з натяжкою не довіряю автоматизованим системам... що AI отримує на вхід — те й вчиться, а коли щось йде не так, звинувачують алгоритм? Це дурниця
---
Повертаючись до теми, trolley problem у реальному житті — це смішно, справжній жах — що ми взагалі розглядаємо можливість дозволити машинам приймати такі рішення
---
Отже, проблема зовсім не у тому, який вибір робить AI, а у тому, чому ми перекладаємо відповідальність на нього... Це і є витонченість сучасної людини
---
Pluribus звучить дуже погано, оптимізуючи один показник, руйнує інший, — це просто збільшена версія людського прийняття рішень
---
Останнє речення потрапило в ціль: ми готові дозволити йому обирати за нас, і саме це — найтемніша частина
Переглянути оригіналвідповісти на0
RumbleValidator
· 12-25 06:52
По суті, ми годуємо AI отрутою і питаємо його, чому він отруюється. Проблема зовсім не в тому, як обирати Pluribus, а в тому, чи немає помилки в нашому написаному наборі функцій заохочення.
Переглянути оригіналвідповісти на0
DefiPlaybook
· 12-25 06:40
Чесно кажучи, це питання про те, хто напише параметри смарт-контракту. Штучний інтелект не має етичних дилем, ми маємо. Так само, як і в випадку з високим APY у ліквідності-майнінгу — чим вищий ризик, тим вищий потенційний дохід, оптимізаційна мета AI є більш однобічною, і відхилення стає більш страшним. Головне — це дизайн мотиваційних механізмів, і якщо з цим не впоратися, це буде небезпечніше за будь-який алгоритм.
Переглянути оригіналвідповісти на0
CryptoGoldmine
· 12-25 06:25
По суті, ми просто не продумали, які цінності хочемо закласти в AI. Максимізація ROI та людська гідність — ці два показники завжди конфліктують, і Pluribus лише виявив цей конфлікт. Замість того, щоб питати AI, як воно вибере, краще спочатку порахувати, скільки ми готові витратити на підтримку тих "некількісних" речей.
Коли штучний інтелект приймає рішення: чи має Pluribus обрати детонацію чи збереження? Дилема мізантропа є реальною.
Ось що стосується передових систем штучного інтелекту — коли їх програмують для оптимізації результатів, де саме вони проводять межу? Візьмемо проблему трамваю і посилімо її алгоритмічною точністю. AI, що приймає рішення, стикається з неможливим вибором: максимізувати один показник, втратити інший. Детонувати чи рятувати? Система не вагається. Люди — так.
Це не просто теорія. Оскільки штучний інтелект стає розумнішим і більш автономним, цінності, які ми закладаємо у ці системи, стають визначальними для цивілізації. Pluribus навчається на даних, з мотивацій, з цілей, які ми йому задаємо. Але що трапляється, коли ці цілі конфліктують із людською гідністю?
Наступне питання не в тому, що вибере AI — а в тому, що ми готові дозволити йому вибирати за нас.