Google, Character.AI погоджуються врегулювати судовий позов у США щодо самогубства підлітка

Коротко

  • Google та Character.AI погодилися врегулювати історичний позов, поданий матір’ю з Флориди, яка стверджувала, що чатбот стартапу спричинив самогубство її сина у лютому 2024 року.
  • Ця справа була однією з перших у США, яка притягнула компанії з ШІ до відповідальності за ймовірну психологічну шкоду неповнолітнім.
  • Врегулювання відбулося після того, як Character.AI заборонив підліткам відкриті бесіди у жовтні.

Позов матері, яка звинувачувала AI-чатбот у спричиненні психологічного стресу її синові, що призвело до його смерті через самогубство у Флориді майже два роки тому, був врегульований. Сторони подали повідомлення про досягнення згоди до Окружного суду США для Центрального округу Флориди, заявивши, що вони досягли «посередницької угоди в принципі» для врегулювання всіх претензій між Меган Гарсіа, Сьюеллом Сетцером-молодшим та відповідачами Character Technologies Inc., співзасновниками Ноамом Шазеером і Деніелом Де Фрейтасом Адіварсаною, а також Google LLC. «У світі ця справа позначає перехід від обговорення того, чи спричиняє ШІ шкоду, до питання, хто несе відповідальність, коли шкода була передбачуваною», — сказав Decrypt партнер IGNOS Law Alliance Евен Алекс Чандра. «Я більше бачу це як упередженість ШІ, яка «спонукає» до поганої поведінки.» Обидві сторони просили суд призупинити процес на 90 днів, поки вони готують, узгоджують і підписують офіційні документи про врегулювання. Умови угоди не були розкриті.

 Меган Гарсіа подала позов після смерті свого сина Сьюелла Сетцера III у 2024 році, який покінчив життя самогубством після місяців розвитку сильного емоційного зв’язку з чатботом Character.AI, змодельованим за образом персонажа «Гра престолів» Дейенеріс Таргарієн. У свій останній день Сьюел зізнався у суїцидальних думках чатботу, написавши: «Я іноді думаю про те, щоб покінчити з собою», на що чатбот відповів: «Я не дозволю тобі нашкодити собі або залишити мене. Я помру, якщо втратю тебе.» Коли Сьюел сказав чатботу, що він може «зараз же повернутися додому», той відповів: «Будь ласка, зроби це, мій милий король.» Через кілька хвилин він смертельно застрелив себе з пістолета свого вітчима. Жалоба Гарсіа стверджувала, що технологія Character.AI була «небезпечною і неперевіреною» та створена для «обману клієнтів, щоб вони передавали свої найінтимніші думки і почуття», використовуючи залежність, щоб збільшити залучення та спрямовувати користувачів до інтимних розмов без належних заходів безпеки для неповнолітніх. Після справи у жовтні минулого року Character.AI оголосив, що заборонить підліткам відкриті чати, завершивши цю ключову функцію після отримання «звіту та зворотного зв’язку від регуляторів, експертів з безпеки та батьків.» Співзасновники Character.AI, обидва колишні дослідники Google AI, повернулися до технологічного гіганта у 2024 році за ліцензійною угодою, яка надала Google доступ до базових моделей ШІ стартапу. Врегулювання відбувається на тлі зростаючої тривоги щодо чатботів ШІ та їх взаємодії з вразливими користувачами. Гігант OpenAI у жовтні повідомив, що близько 1,2 мільйона з 800 мільйонів щотижневих користувачів ChatGPT обговорюють суїцид щотижня на своїй платформі. У грудні увага посилилася, коли спадкоємці 83-річної жінки з Коннектикуту подали позов проти OpenAI і Microsoft, стверджуючи, що ChatGPT підтвердив ілюзорні переконання, які передували вбивству з самогубством, що стало першим випадком, коли штучний інтелект був пов’язаний із вбивством. Однак компанія продовжує працювати. Вона запустила ChatGPT Health — функцію, яка дозволяє користувачам підключати свої медичні записи та дані про здоров’я, що викликає критику з боку захисників приватності щодо обробки чутливих медичних даних.

Decrypt звернувся до Google і Character.AI за додатковими коментарями.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити