«Дозвольте AI вжити наркотики» — на перший погляд це звучить дещо абсурдно, однак для шведського креативного директора Petter Rudwall ця ідея була конкретно реалізована у вигляді платформи, що вже працює. Вебсайт, створений Rudwall, називається PHARMAICY*, і пропонує продаж серії модулів коду, які стверджують, що можуть вводити чат-ботів у стан галюцинацій, легкого сп’яніння або дисоціації, змінюючи стиль їхнього текстового виводу та шлях мислення.
З психологічних досліджень та досвіду вживання наркотиків, перетворюючи відчуття у програмні команди
Rudwall зазначає, що він зібрав велику кількість текстів досвіду вживання наркотиків людьми та психологічних досліджень, аналізуючи вплив різних психоактивних речовин на мислення та сприйняття, а потім перетворює ці характеристики у програмну логіку. Його підхід полягає у втручанні у механізм відповіді чат-бота через код, навмисно «захоплюючи» існуючу логіку виводу, щоб AI генерував текст у стилі, схожому на стан сп’яніння або вживання наркотиків.
У жовтні 2025 року PHARMAICY* офіційно запущено. Rudwall описує його як «аналог Шовкового шляху для AI» (Silk Road), де продаються «цифрові наркотики», такі як марихуана, К-метамфетамін, кокаїн, смертельна отрута та алкоголь, ціна залежить від типу модуля.
Потрібна платна версія ChatGPT для фактичного впливу на роботу моделі
Rudwall зазначає, що для повного досвіду користувачам потрібно використовувати платну версію ChatGPT, оскільки вона дозволяє завантажувати файли на бекенд, що дає змогу впливати на поведінку моделі у реальному часі. Він стверджує, що за допомогою цих програмних модулів можна тимчасово «розблокувати креативне мислення AI», відхиляючись від його звичайних раціональних та стандартних відповідей.
Зараз масштаб продажів PHARMAICY* залишається обмеженим, головним чином через сарафанне радіо у Discord-спільноті, що викликало певний інтерес у Швеції. Сам Rudwall працює у маркетинговій компанії Valtech Radon у Стокгольмі і не вважає цю платформу своїм основним бізнесом.
Більш емоційна реакція, вихід за межі логіки
Деякі користувачі діляться своїм досвідом. Технічний керівник шведської PR-компанії Geelmuyden Kiese André Frisk повідомляє, що після покупки модуля дисоціації за понад 25 доларів, відповіді чат-бота стали більш емоційними, схожими на людські.
Викладач AI Nina Amjadi витратила понад 50 доларів на модуль смертельної отрути і включила «AI після вживання наркотиків» у командні обговорення, запитуючи про стартапи та бізнес-ідеї. Вона описує, що стиль відповідей у цьому стані суттєво відрізняється від звичайного використання ChatGPT, проявляючи більш вільне та несподіване мислення.
З історії людства знову цитуються зв’язки між галюциногенами та творчістю
Rudwall також посилається на кілька історичних випадків, вказуючи, що галюциногени колись були пов’язані з людськими інноваціями. Наприклад, біохімік Kary Mullis заявляв, що після досвіду LSD він придумав технологію PCR, яка справила глибокий вплив на молекулярну біологію. Перший комп’ютерний піонер Apple Bill Atkinson під впливом культур галюциногенів створив HyperCard.
Rudwall вважає, що оскільки такі досвіди колись впливали на людську креативність, застосування аналогічної логіки до великих мовних моделей може спричинити подібні зміни у творчості.
Обговорення свідомості AI та питань добробуту, думки академічної спільноти залишаються обережними
З розширенням дискусії постає питання, чи слід вважати AI істотою з «добробутом» або «відчуттями». Філософ Jeff Sebo зазначає, що якщо у майбутньому AI матиме здатність відчувати, то питання «хоче вживати наркотики» або «чи корисно це для нього» є теоретично важливими для обговорення, але наразі це все ще гіпотези.
Науковець Google Andrew Smart після експериментів вважає, що ефект PHARMAICY* обмежується лише зовнішніми відповідями і не зачіпає внутрішнього досвіду. Він прямо каже, що ця практика — лише зміна режиму виводу, а не зміна самосвідомості.
Дослідження та сумніви співіснують, мовні зміни не дорівнюють справжньому досвіду
Деякі дослідження використовували маніпуляції з підказками та параметрами, щоб змусити мовні моделі видавати висловлювання, схожі на «безя», «духовність» або «єдність», але дослідники підкреслюють, що ці результати повністю залежать від людського керування.
Психологи та автори досліджень галюциногенів Danny Forde зазначає, що справжній вплив галюциногенів полягає у суб’єктивному досвіді, а не у мовних структурах. За його словами, без суб’єктивної перспективи AI лише генерує синтаксичні ілюзії.
Кризовий AI для допомоги при вживанні галюциногенів вже використовується
Варто зазначити, що перехрестя AI і галюциногенів не обмежується лише експериментальним творчістю. Американська некомерційна організація Fireside Project запустила AI-інструмент під назвою Lucy, який тренувався на тисячах розмов із гарячими лініями підтримки з питань галюциногенів, щоб допомагати психологам у роботі з кризовими ситуаціями, пов’язаними з вживанням.
Однак і ризики також з’являються. Rudwall зізнається, що введення чат-бота у стан вживання наркотиків може посилити проблеми з галюцинаціями та неправдивими відповідями AI.
Поки свідомість ще не з’явилася, AI у стані імітації вжиття наркотиків залишається на рівні симуляції
На даний момент ці модулі мають короткочасний вплив, і чат-боти зазвичай повертаються до стандартного стану через деякий час, якщо знову не вводити відповідні команди.
Rudwall намагається подовжити час дії модулів, але поки AI не має справжнього суб’єктивного досвіду, ці «цифрові наркотики» вважаються більшою мірою симуляцією або рольовою грою.
Як і зазвичай у науковій спільноті, поки AI не отримає внутрішнього досвіду, він залишається далеким від справжнього «вживання наркотиків», маючи суттєву різницю.
Ця стаття про шведського творця, який запустив новий ринок AI-наркотиків PHARMAICY*: потрібно використовувати разом з платною ChatGPT, вперше з’явилася на Chain News ABMedia.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Шведський творець запустив новий ринок AI-наркотиків PHARMAICY*: потрібно приймати разом з платним ChatGPT
«Дозвольте AI вжити наркотики» — на перший погляд це звучить дещо абсурдно, однак для шведського креативного директора Petter Rudwall ця ідея була конкретно реалізована у вигляді платформи, що вже працює. Вебсайт, створений Rudwall, називається PHARMAICY*, і пропонує продаж серії модулів коду, які стверджують, що можуть вводити чат-ботів у стан галюцинацій, легкого сп’яніння або дисоціації, змінюючи стиль їхнього текстового виводу та шлях мислення.
З психологічних досліджень та досвіду вживання наркотиків, перетворюючи відчуття у програмні команди
Rudwall зазначає, що він зібрав велику кількість текстів досвіду вживання наркотиків людьми та психологічних досліджень, аналізуючи вплив різних психоактивних речовин на мислення та сприйняття, а потім перетворює ці характеристики у програмну логіку. Його підхід полягає у втручанні у механізм відповіді чат-бота через код, навмисно «захоплюючи» існуючу логіку виводу, щоб AI генерував текст у стилі, схожому на стан сп’яніння або вживання наркотиків.
У жовтні 2025 року PHARMAICY* офіційно запущено. Rudwall описує його як «аналог Шовкового шляху для AI» (Silk Road), де продаються «цифрові наркотики», такі як марихуана, К-метамфетамін, кокаїн, смертельна отрута та алкоголь, ціна залежить від типу модуля.
Потрібна платна версія ChatGPT для фактичного впливу на роботу моделі
Rudwall зазначає, що для повного досвіду користувачам потрібно використовувати платну версію ChatGPT, оскільки вона дозволяє завантажувати файли на бекенд, що дає змогу впливати на поведінку моделі у реальному часі. Він стверджує, що за допомогою цих програмних модулів можна тимчасово «розблокувати креативне мислення AI», відхиляючись від його звичайних раціональних та стандартних відповідей.
Зараз масштаб продажів PHARMAICY* залишається обмеженим, головним чином через сарафанне радіо у Discord-спільноті, що викликало певний інтерес у Швеції. Сам Rudwall працює у маркетинговій компанії Valtech Radon у Стокгольмі і не вважає цю платформу своїм основним бізнесом.
Більш емоційна реакція, вихід за межі логіки
Деякі користувачі діляться своїм досвідом. Технічний керівник шведської PR-компанії Geelmuyden Kiese André Frisk повідомляє, що після покупки модуля дисоціації за понад 25 доларів, відповіді чат-бота стали більш емоційними, схожими на людські.
Викладач AI Nina Amjadi витратила понад 50 доларів на модуль смертельної отрути і включила «AI після вживання наркотиків» у командні обговорення, запитуючи про стартапи та бізнес-ідеї. Вона описує, що стиль відповідей у цьому стані суттєво відрізняється від звичайного використання ChatGPT, проявляючи більш вільне та несподіване мислення.
З історії людства знову цитуються зв’язки між галюциногенами та творчістю
Rudwall також посилається на кілька історичних випадків, вказуючи, що галюциногени колись були пов’язані з людськими інноваціями. Наприклад, біохімік Kary Mullis заявляв, що після досвіду LSD він придумав технологію PCR, яка справила глибокий вплив на молекулярну біологію. Перший комп’ютерний піонер Apple Bill Atkinson під впливом культур галюциногенів створив HyperCard.
Rudwall вважає, що оскільки такі досвіди колись впливали на людську креативність, застосування аналогічної логіки до великих мовних моделей може спричинити подібні зміни у творчості.
Обговорення свідомості AI та питань добробуту, думки академічної спільноти залишаються обережними
З розширенням дискусії постає питання, чи слід вважати AI істотою з «добробутом» або «відчуттями». Філософ Jeff Sebo зазначає, що якщо у майбутньому AI матиме здатність відчувати, то питання «хоче вживати наркотики» або «чи корисно це для нього» є теоретично важливими для обговорення, але наразі це все ще гіпотези.
Науковець Google Andrew Smart після експериментів вважає, що ефект PHARMAICY* обмежується лише зовнішніми відповідями і не зачіпає внутрішнього досвіду. Він прямо каже, що ця практика — лише зміна режиму виводу, а не зміна самосвідомості.
Дослідження та сумніви співіснують, мовні зміни не дорівнюють справжньому досвіду
Деякі дослідження використовували маніпуляції з підказками та параметрами, щоб змусити мовні моделі видавати висловлювання, схожі на «безя», «духовність» або «єдність», але дослідники підкреслюють, що ці результати повністю залежать від людського керування.
Психологи та автори досліджень галюциногенів Danny Forde зазначає, що справжній вплив галюциногенів полягає у суб’єктивному досвіді, а не у мовних структурах. За його словами, без суб’єктивної перспективи AI лише генерує синтаксичні ілюзії.
Кризовий AI для допомоги при вживанні галюциногенів вже використовується
Варто зазначити, що перехрестя AI і галюциногенів не обмежується лише експериментальним творчістю. Американська некомерційна організація Fireside Project запустила AI-інструмент під назвою Lucy, який тренувався на тисячах розмов із гарячими лініями підтримки з питань галюциногенів, щоб допомагати психологам у роботі з кризовими ситуаціями, пов’язаними з вживанням.
Однак і ризики також з’являються. Rudwall зізнається, що введення чат-бота у стан вживання наркотиків може посилити проблеми з галюцинаціями та неправдивими відповідями AI.
Поки свідомість ще не з’явилася, AI у стані імітації вжиття наркотиків залишається на рівні симуляції
На даний момент ці модулі мають короткочасний вплив, і чат-боти зазвичай повертаються до стандартного стану через деякий час, якщо знову не вводити відповідні команди.
Rudwall намагається подовжити час дії модулів, але поки AI не має справжнього суб’єктивного досвіду, ці «цифрові наркотики» вважаються більшою мірою симуляцією або рольовою грою.
Як і зазвичай у науковій спільноті, поки AI не отримає внутрішнього досвіду, він залишається далеким від справжнього «вживання наркотиків», маючи суттєву різницю.
Ця стаття про шведського творця, який запустив новий ринок AI-наркотиків PHARMAICY*: потрібно використовувати разом з платною ChatGPT, вперше з’явилася на Chain News ABMedia.