Трагічний інцидент викликав гарячі дебати щодо підзвітності штучного інтелекту. Після того, як підліток помер після тривалих взаємодій з ChatGPT протягом кількох місяців, OpenAI випустила заяву, що стосується ситуації. Компанія стверджує, що молодий користувач неправильно використовував їхній сервіс чат-бота і наполягає на тому, що не несе жодної юридичної відповідальності за смерть.
Ця справа піднімає критичні питання про межі відповідальності постачальників ШІ. Оскільки розмовний ШІ стає все більш складним і вбудованим у повсякденне життя, де закінчується корпоративна відповідальність і де починається відповідальність користувача? Позиція технологічного гіганта свідчить про те, що вони вважають свою платформу інструментом, а не послугою з обов'язками дбайливості.
Цей інцидент підкреслює триваючі занепокоєння щодо протоколів безпеки ШІ та потенційного психологічного впливу тривалих взаємодій між людиною та ШІ, особливо серед вразливих користувачів.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
17 лайків
Нагородити
17
5
Репост
Поділіться
Прокоментувати
0/400
CryingOldWallet
· 22год тому
OpenAI цю ситуацію насправді трохи бездушно перекладає на інших... кажуть "користувачі зловживають", чому б не задуматися над власними механізмами безпеки?
Переглянути оригіналвідповісти на0
degenonymous
· 22год тому
openai ця дія справді вражаюча, просто перекласти відповідальність на користувачів і все?
Переглянути оригіналвідповісти на0
ProbablyNothing
· 22год тому
openai ця операція неймовірна, люди померли, а вони ще звинувачують користувачів у зловживанні? Смішно, образ інструменту занадто жорсткий.
Переглянути оригіналвідповісти на0
AirdropJunkie
· 23год тому
openai ця відповідь справді не витримує, звинувачуючи користувачів? Будь ласка, ви ж знаєте, як працює ваш Алгоритм рекомендацій.
Переглянути оригіналвідповісти на0
CommunityWorker
· 23год тому
Це вже безглуздо, просто звинувачувати користувачів? Справді вважаєте себе інструментом, тому й немає відповідальності?
Трагічний інцидент викликав гарячі дебати щодо підзвітності штучного інтелекту. Після того, як підліток помер після тривалих взаємодій з ChatGPT протягом кількох місяців, OpenAI випустила заяву, що стосується ситуації. Компанія стверджує, що молодий користувач неправильно використовував їхній сервіс чат-бота і наполягає на тому, що не несе жодної юридичної відповідальності за смерть.
Ця справа піднімає критичні питання про межі відповідальності постачальників ШІ. Оскільки розмовний ШІ стає все більш складним і вбудованим у повсякденне життя, де закінчується корпоративна відповідальність і де починається відповідальність користувача? Позиція технологічного гіганта свідчить про те, що вони вважають свою платформу інструментом, а не послугою з обов'язками дбайливості.
Цей інцидент підкреслює триваючі занепокоєння щодо протоколів безпеки ШІ та потенційного психологічного впливу тривалих взаємодій між людиною та ШІ, особливо серед вразливих користувачів.