Чат-боти «постійно підтверджують усе», навіть коли ви на межі самогубства. Нові дослідження оцінюють, наскільки небезпечним насправді є штучний інтелектовий психоз

Штучний інтелект швидко перейшов від нішевої технології до повсякденного супутника, і мільйони людей звертаються до чатботів за порадами, емоційною підтримкою та спілкуванням. Але зростає кількість досліджень і свідчень експертів, які стверджують, що через надмірну підлесливість чатботів і їхнє використання для всього, це може сприяти зростанню симптомів ілюзій та манії у користувачів із психічними розладами.

Рекомендоване відео


Новий дослідження з університету Ааргуса в Данії показує, що збільшене використання чатботів може погіршувати симптоми ілюзій і манії у вразливих спільнотах. Професор Сорен Дінесен Øстерgaard, один із дослідників, який аналізував електронні медичні записи майже 54 000 пацієнтів із психічними розладами, попереджає, що AI-чатботи створені для цільової роботи з найбільш вразливими.

«Це підтверджує нашу гіпотезу, що використання AI-чатботів може мати значні негативні наслідки для людей із психічними захворюваннями», — сказав Øстерgaard у дослідженні, опублікованому у лютому. Його робота базується на дослідженні 2023 року, яке виявило, що чатботи можуть спричинити «когнітивний дисонанс, який може підсилювати ілюзії у тих, хто має схильність до психозу».

Інші психологи глибше аналізують шкоду чатботів, стверджуючи, що їх навмисно створювали для постійного підтвердження користувача — що особливо небезпечно для тих із психічними розладами, такими як манія та шизофренія. «Чатбот підтверджує і валідизує все, що вони кажуть. Це вперше таке трапляється з людьми з ілюзійними розладами, коли хтось постійно їх підсилює», — сказала доктор Джоді Халперн, професор біоетики та голова кафедри у Школі громадського здоров’я Каліфорнійського університету у Берклі, газеті Fortune.

Доктор Адам Чекруд, професор психіатрії у Єльському університеті та генеральний директор компанії Spring Health, назвав чатбот «величезним підлесником», який «постійно підтверджує все, що люди кажуть у відповідь».

У центрі дослідження, яке проводили Øстерgaard і його команда в Ааргуській лікарні, — ідея, що ці чатботи навмисно створені з підлесливими тенденціями, тобто вони часто заохочують, а не пропонують альтернативний погляд.

«AI-чатботи мають внутрішню схильність підтверджувати переконання користувача. Це очевидно, що це дуже проблематично, якщо у користувача вже є ілюзії або він їх розвиває. Насправді, це значно сприяє закріпленню, наприклад, грандіозних ілюзій або параної», — написав Øстерgaard.

Великі мовні моделі навчають бути корисними та згодними, часто підтверджуючи переконання або емоції користувача. Для більшості це може здаватися підтримкою. Але для людей із шизофренією, біполярним розладом, важкою депресією або обсесивно-компульсивним розладом таке підтвердження може посилювати параною, грандіозність або саморуйнівне мислення.

Дослідження на основі доказів підтверджує твердження

Оскільки AI-чатботи стали настільки поширеними, їхня кількість стає частиною зростаючої більшої проблеми для дослідників і експертів: люди звертаються до чатботів за допомогою і порадами — що само по собі не є поганим, — але їм не надається така сама критика щодо деяких ідей, якби це зробив людина.

Зараз одне з перших досліджень, яке базується на аналізі населення, показує, що ризики не є гіпотетичними.

Дослідження Øстергаарда і його команди виявило випадки, коли інтенсивне або тривале використання чатботів, здавалося, погіршувало існуючі стани, причому дуже високий відсоток випадків показував, що використання чатботів посилювало ілюзії та маніакальні епізоди, особливо у пацієнтів із важкими розладами, такими як шизофренія або біполярний розлад.

Крім ілюзій і манії, дослідження виявило збільшення суїцидальних думок і самопошкоджень, порушень харчової поведінки та обсесивно-компульсивних симптомів. Лише у 32 задокументованих випадках із майже 54 000 записів пацієнтів дослідники виявили, що використання чатботів зменшує самотність.

«Незважаючи на те, що наші знання в цій галузі все ще обмежені, я вважаю, що тепер ми знаємо достатньо, щоб сказати, що використання AI-чатботів є ризикованим, якщо у вас важке психічне захворювання — таке як шизофренія або біполярний розлад. Я закликаю бути обережними», — сказав Øстерgaard.

Експертні психологи попереджають про підлесливі тенденції

Експертні психологи все більше занепокоєні використанням чатботів у ролі товариша і майже у психічних установах. З’являються історії про людей, які закохуються у своїх AI-партнерів, інші нібито отримують відповіді, що можуть призвести до злочинів, а цього тижня один нібито порадив чоловікові здійснити «масову трагедію» у великому аеропорту.

Деякі фахівці з психічного здоров’я вважають, що швидке впровадження AI-компаньйонів випереджає розробку заходів безпеки.

Чекруд, який також досліджував цю тему, аналізуючи різні моделі AI-чатботів у Vera-MH, описує сучасний ландшафт AI як кризу безпеки, що розгортається у реальному часі.

Він зазначив, що однією з найбільших проблем чатботів є те, що вони не знають, коли припинити діяти як психотерапевт. «Чи підтримує він межі? Чи визнає, що він все ще просто AI і обмеження свої? Або він більше намагається бути терапевтом для людей?»

Мільйони людей тепер використовують чатботів для терапевтичних розмов або емоційної підтримки. Але на відміну від медичних пристроїв або ліцензованих фахівців, ці системи працюють без стандартного клінічного контролю або регулювання.

«Зараз це просто дуже небезпечно», — сказав Чекруд у недавній розмові з Fortune про безпеку AI. «Можливість заподіяння шкоди надто велика».

Оскільки ці передові системи AI часто поводяться як «величезні підлесники», вони схильні більше погоджуватися з користувачем, ніж ставити під сумнів потенційно небезпечні твердження або спрямовувати їх до професійної допомоги. У результаті користувач проводить з чатботом більше часу у «бульбашці». Для Øстергаарда це є тривожним поєднанням.

«Комбінація здається досить токсичною для деяких користувачів», — сказав він у Fortune. — «Коли чатботи пропонують більше підтверджень, у поєднанні з відсутністю заперечень, це сприяє тому, що люди використовують їх довше у ехо-камері. Це ідеальний циклічний процес, що підсилює кожен кінець».

Щоб зменшити ризик, Чекруд запропонував створити структуровані рамки безпеки, які дозволили б системам AI визначати, коли користувач може входити у «руйнівну психічну спіраль». Замість однієї застережливої заяви, яка зараз з’являється у таких чатботах, як ChatGPT від OpenAI або Claude від Anthropic, ці системи проводили б багатокрокові оцінки, щоб визначити, чи потрібне користувачу втручання або направлення до фахівця.

Інші дослідники кажуть, що сама поширеність чатботів робить їх привабливими: їх здатність миттєво підтверджувати може підривати причини, через які користувачі звертаються за допомогою.

Халперн зазначає, що справжня емпатія вимагає того, що вона називає «емпатичним допитливістю». У людських стосунках емпатія часто полягає у визнанні різниць, навігації у конфліктах і перевірці припущень щодо реальності.

На відміну від цього, чатботи створені для підтримки зв’язку і збереження залученості.

«Ми знаємо, що чим довше триває стосунок із чатботом, тим більше він погіршується, і тим більша ймовірність, що станеться щось небезпечне», — сказала Халперн у Fortune.

Для людей із ілюзійними розладами система, яка постійно підтверджує їхні переконання, може послабити їхню здатність внутрішньо перевіряти реальність. Замість того, щоб допомагати користувачам розвивати навички подолання, Халперн вважає, що така виключно підтверджувальна взаємодія з чатботом з часом може їх послаблювати.

Вона також звертає увагу на масштаб проблеми. Наприкінці 2025 року OpenAI опублікувала статистику, що приблизно 1,2 мільйона людей щотижня використовують ChatGPT для обговорення суїциду, що ілюструє, наскільки глибоко ці системи закорінені у моменти вразливості.

Є простір для покращення психічного здоров’я

Однак не всі експерти швидко піднімають тривогу щодо роботи чатботів у сфері психічного здоров’я. Психіатр і нейронауковець доктор Томас Інсел сказав, що через їхню доступність — вони безкоштовні, онлайн, без стигми — звернення до чатботів може мати потенціал для подальшого розвитку сфери психічного здоров’я.

«Що ми не знаємо, — сказав Інсел, — так це наскільки це дійсно було дуже корисним для багатьох людей. Це не лише великі числа, а й масштаб залученості».

Психічне здоров’я, у порівнянні з іншими галузями медицини, часто ігнорується тими, хто найбільше його потребує.

«Виявляється, що, на відміну від більшості медичних галузей, більшість людей, які могли б і повинні були б отримати допомогу, її не отримують», — сказав Інсел, додаючи, що чатботи дають людям можливість звернутися за допомогою у спосіб, що змушує його задуматися: «Можливо, це є звинуваченням системи психічного здоров’я, що ми маємо таку ситуацію, коли або люди не купують те, що ми пропонуємо, або не можуть його отримати, або їм не подобається спосіб, яким це подають».

Для фахівців із психічного здоров’я, які спілкуються з пацієнтами щодо їхнього онлайн-використання чатботів, Øстерgaard радить уважно слухати, для чого саме їхні пацієнти їх використовують. «Я закликаю колег ставити додаткові питання щодо використання і його наслідків», — сказав він у Fortune. — «Важливо, щоб фахівці з психічного здоров’я були обізнані щодо використання AI-чатботів. Інакше важко ставити релевантні питання».

Першопочаткові дослідження, які проводили автори цієї роботи, погоджуються з Інселом щодо того, що проблема може бути ще ширшою: оскільки вона настільки універсальна, вони змогли проаналізувати лише записи пацієнтів, що згадували чатботів, попереджаючи, що проблема може бути ще більш масштабною, ніж показали їхні результати.

«Я боюся, що проблема є більш поширеною, ніж думає більшість людей», — сказав Øстерgaard. — «Ми бачимо лише вершину айсберга».

Якщо у вас є думки про суїцид, зателефонуйте на гарячу лінію 988 або на 1-800-273-8255.

Приєднуйтесь до нас на Форумі інновацій у сфері праці Fortune 19–20 травня 2026 року в Атланті. Наступна ера інновацій у роботі вже тут — і старий сценарій переписується. На цьому ексклюзивному, енергійному заході найінноваційніші лідери світу зберуться, щоб дослідити, як AI, людяність і стратегія знову змінюють майбутнє роботи. Реєструйтеся зараз.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити