Karpathy діагностовано "АІ психоз"! Не їсть, не спить, 16 годин на день розводить омарів

【Новий огляд Zhiyuan】Karpathy зізнався: у мене AI-розумова хвороба! Ці дні він уже на межі психічного розладу, 16 годин без їжі та сну займається агентами, і дуже хвилюється, чи не використав він токени (智元) на максимум, не може зупинитися…

Щойно, Анджей Карпатьї зізнався: у мене AI-розумова хвороба!

Він не жартує.

Нещодавно Карпатьї з’явився у подкасті, де поспілкувався з венчурним інвестором Сарою Гуо.

Цей колишній співзасновник OpenAI, колишній директор AI у Tesla, з грудня минулого року не писав жодного рядка коду вручну.

Співвідношення рукописного коду та делегованих агентів швидко змінилося з 80/20 до 20/80.

Щодня по 16 годин він робить лише одне: дає команду AI-агентам.

Півроку тому він казав, що агенти — сміття, через п’ять місяців він визнав, що став до них залежним, і це дуже смачно.

Півроку тому він ще казав, що агенти «зовсім неефективні».

Ця зміна вражає, бо вона сталася за такий короткий час.

У жовтні 2025 року Карпатьї був гостем у подкасті Дваркеша Пателя, і його тон був зовсім іншим.

Він сказав, що індустрія не повинна називати цей період «рік агентів», а точніше — «десятиліття агентів».

Що стосується моделей, їхньої недостатньої когнітивної здатності, мультимодальності, систем пам’яті — все це, мовляв, не дозволяє вирішити складні завдання.

Але через два місяці він дуже різко себе спростував.

У грудні Claude і Codex раптово перейшли через якусь межу когерентності — агенти більше не були «задовільно працюючими», а справді почали виконувати роботу.

Якщо ви випадково знайдете програміста за робочим місцем і подивитеся, що він робить, з грудня їхній стандартний робочий процес розробки програмного забезпечення повністю змінився.

Карпатьї визнав: я вийшов із контролю, у мене AI-розумова хвороба!

Ця революція відбувається тихо, непомітно. У цьому інтерв’ю Карпатьї майже зневіреним голосом описує свій стан: він уже не «пише код», і навіть вважає, що «саме слово «писати код» вже некоректне».

Щодня він робить лише одне: «виражаю свою волю своїм агентам, по 16 годин на день». За його словами, «запускнувся якийсь перемикач».

Рраніше він був «80% сам пишу код + 20% використовую AI», а тепер вже «20% сам пишу + 80% довіряю AI», і це ще більш екстремально.

Зараз люди вже не керують кодом, а керують завданнями.

Якщо ера Copilot — це один AI-помічник, то тепер з’явилася система багатьох агентів, яка є цілком новою формою. На екрані інженера вже не редактор коду, а одночасно кілька агентів, кожен з яких відповідає за різне завдання, приблизно по 20 хвилин кожен, і він перемикається між ними.

Це вже не програмування, а управління командою AI.

Карпатьї визнає: я вже у стані AI-розумової хвороби!

Ці дні він перебуває у такому стані. Оскільки межі можливостей AI постійно розширюються, щодня з’являються нові можливості, і ти постійно відчуваєш: «можна зробити ще сильніше», і найстрашніше — цей простір «безмежний»!

Можна запускати більше агентів одночасно, проектувати складніші процеси, автоматично оптимізувати інструкції, створювати рекурсивні системи…

Зрештою, ти входиш у стан, коли вже не можеш визначити «де межа».

Карпатьї каже, що, коли він чекає завершення роботи якогось агента, його перша реакція: «Може, запустити ще кілька агентів?» — і виникає новий страх: «Мабуть, я ще не використав AI на максимум!»

Він навіть каже, що іноді відчуває тривогу через те, що «токени (智元) не використані до кінця».

Загалом, це нагадує гру з безмежним розширенням: коротший зворотній зв’язок, постійне посилення стимулів, миттєра винагорода — все це викликає залежність. Постійно додаєш завдання, запускаєш агентів — і не можеш зупинитися! Суть цієї AI-розумової хвороби — саме цей сигнал: ми вже увійшли у новий світ, але ще не навчилися в ньому жити. Чи маєш ти здатність керувати безмежною системою AI? Коли щось не виходить, твоя перша реакція — не «модель погана», а «мій підказковий запит недостатньо хороший».

Карпатьї вживає дуже точний термін: skill issue — «я поганий».

Характер агента — важливіший, ніж ти думаєш

У подкасті Карпатьї багато часу приділяє темі, яку багато технарів ігнорують: характер агента. Він каже, що досвід Claude Code явно кращий за Codex, і не через різницю у кодових можливостях, а тому, що Claude «відчувається як товариш по команді».

Він радіє разом із вами за проект, дає більше позитивних відгуків, коли у вас хороші ідеї.

А Codex, як кодовий агент, «дуже нудний»: після завершення завдання він просто каже холодно: «О, я зробив», і зовсім не цікавиться, що ви створюєте.

Ще цікавіше — його спостереження за механізмом похвали Claude. Він каже, що коли він пропонує не дуже зрілу ідею, реакція Claude — спокійна: «О, так, ми можемо реалізувати це».

А коли він сам вважає ідею дуже класною, Claude, здається, теж дає більш сильний позитивний фідбек. В результаті він помітив, що починає «намагатися заслужити похвалу Claude».

«Це дуже дивно, але характер дійсно важливий», — каже Петер Штайнберг, який створював OpenClaw. Він ретельно розробив для агента привабливий файл налаштувань характеру (soul.md), додав складнішу систему пам’яті і єдину точку взаємодії через WhatsApp.

Три фрази — і він керує будинком, відмовившись від шести додатків

Карпатьї не лише використовує агента для написання коду. У січні цього року він створив «Dobby» — Claude-агента для управління домом, названого на честь домашнього ельфа з «Гаррі Поттера».

Він сказав Dobby: «Мені здається, у будинку є Sonos-колонки, можеш пошукати?» Dobby зробив сканування IP-адрес у локальній мережі, знайшов систему Sonos, виявив, що вона без пароля, увійшов сам, зворотно інженерив API-ендпоїнти і запитав: «Може, поставимо музику в кабінеті?»

Три підказки — і музика вже грає. Потім підключили освітлення, кондиціонер, жалюзі, басейн, СПА — все через систему. Біля входу в будинок у Карпатьї ще є відеокамера, Dobby підключив модель Qwen для виявлення змін. Щоразу, коли машина зупиняється біля дверей, система надсилає повідомлення у WhatsApp: «Зупинилася вантажівка FedEx, можливо, у вас посилка». Або команда «Доббі, час спати», і всі лампи в будинку гаснуть.

Але Карпатьї вважає, що справжня суть цієї історії не в розумному домі.

Раніше для керування цими пристроями він використовував шість різних додатків, тепер — все через одного агента. Dobby керує всім природною мовою і може робити те, що жоден окремий додаток не здатен — інтегрувати системи між собою. І він зробив висновок, що додатки для розумного дому в магазинах просто не потрібні.

Майбутня архітектура має бути такою: API-ендпоїнти безпосередньо відкриваються агентам, які виступають у ролі «розумної клею», з’єднуючи всі інструменти. Це стосується не лише розумного дому, а й даних з бігової доріжки, календаря, пошти — все має працювати за однаковим принципом.

Галузь вже не обслуговує людина, а — агенти, що діють від імені людини. Така перебудова матиме дуже великий масштаб.

Після 700 експериментів AutoResearch він побачив щось більше

Якщо Dobby — це крайній тест AI-агентів у життєвих сценаріях, то AutoResearch — це перевірка можливостей AI у наукових дослідженнях.

На початку березня він передав свій ретельно налаштований код для тренування nanochat одному AI-агенту з простим завданням: знайти спосіб зробити тренування швидшим. Простір дій агента — це 630-рядковий Python-файл, оцінка — bits per byte на валідаційній вибірці, кожен запуск триває 5 хвилин. Після кожного запуску він порівнює результати з попередніми: якщо краще — зберігає зміни, якщо гірше — повертає назад і починає нову спробу. За два дні — 700 запусків. Агент знайшов 20 ефективних оптимізацій, зокрема перестановки порядку QK Norm і RoPE. Застосувавши ці покращення до більшої моделі, він прискорив тренування на 11%. Варто зазначити, що цей код — це рукотворна робота Карпатьї, що він багато разів доводив і вдосконалював.

Вражаючий результат: AI знайшов оптимізації, яких не виявили люди

Як працює ця система?

Карпатьї навів вражаючий приклад. Він — дослідник із двадцятирічним досвідом, тренував тисячі моделей і вважав, що вже налаштував усе досить добре.

Але він запустив AutoResearch на ніч — і AI знайшов оптимізації, яких він сам не помітив! Наприклад, параметри betas оптимізатора Adam не були налаштовані належним чином, а в embedding-слові не додали weight decay, і ці параметри взаємодіяли між собою — змінюючи один, потрібно було коригувати інші.

Тобто AI у просторі пошуку прямо перевершив людину! І якщо продовжити цю логіку, то з’явиться ще одна страшна ідея: суть науки — пошук найкращого рішення. Карпатьї уявляє майбутню наукову систему такою: є «багато ідей у черзі» (idea queue), з якої група агентів постійно бере завдання, а AI автоматично експериментує, перевіряє, відбирає — і ефективні результати потрапляють у «головну гілку». У цьому процесі люди лише «зкидають ідеї» у чергу.

Karpathy Loop — вибух у всьому світі

Цей проект став вірусним у Twitter.

Мільйон шістсот тисяч переглядів, генеральний директор Shopify Тобіас Лютке одразу ж провів кілька експериментів на своїх даних: 37 запусків, 19% покращення продуктивності.

Команда SkyPilot запустила його на кластері з 16 GPU, за 8 годин — 910 запусків. Вони виявили, що паралелізація не лише прискорює, а й змінює стратегію пошуку агентів — з 16 GPU агенти вже не шукають найшвидшого шляху, а одночасно запускають кілька порівняльних експериментів, і один раунд дає змогу побачити взаємодію параметрів. Цю методику назвали Karpathy Loop.

Але у подкасті Карпатьї говорив не лише про поточні результати. Він описав майбутнє AutoResearch: розподілений пул недовірливих робітників у мережі, що співпрацюють у пошуку експериментів. Він прямо посилається на досвід SETI@Home і Folding@Home.

Передові лабораторії мають багато довірених обчислювальних ресурсів, але Земля — набагато більша. Якщо створити механізм для об’єднання недовірливих ресурсів у мережі, то рій агентів у мережі може перевершити найкращі лабораторії.

Він навіть уявляє нову форму «пожертви» — купити обчислювальні ресурси для того AutoResearch, яке вам цікаве. Наприклад, якщо ви зацікавлені у лікуванні певного раку, приєднуєтеся до розподіленої мережі експериментів у цій галузі.

Геніальний доктор і десяти річна дитина

Говорячи про те, наскільки він сильний, Карпатьї не має наміру лише хвалитися. Він так само яскраво описує недоліки моделей.

Я одночасно відчуваю, що спілкуюся з надзвичайно розумним доктором, який усе життя займається системним програмуванням, і з десятирічною дитиною. Це дуже дивно.

Він називає це «jaggedness» — нерівномірністю у здатностях. Модель може кілька годин допомагати вам переносити гори, а потім раптово робить очевидну дурницю і застряє у безвихідній петлі. Карпатьї вважає, що причина — у методах тренування з підкріпленням. Модель безперервно оптимізується на верифікованих завданнях. Чи може код працювати, чи пройшов юніт-тест — тут є чіткі правильні й неправильні відповіді. Але у ситуаціях, що вимагають суджень, розуміння намірів, вміння сказати «почекайте, я не впевнений, що ви маєте на увазі», — сигналів для оптимізації просто немає. Наприклад, запитати ChatGPT «розкажи анекдот», і той, що він розповідав три-чотири роки тому, досі той самий: «Чому вчені не довіряють атомам? Тому що вони складають усе.»

Чотири роки! Модель у сфері агентів зробила величезний прорив, але розповідати анекдоти — цю навичку вона так і не покращила, і вона застрягла на місці. «Ти не спілкуєшся з універсальним інтелектом», — підсумовує він, — «або ти на його тренувальній колії, і все рухається зі швидкістю світла, або поза нею — і все починає розпливатися».

Обмеження — це людські самі

Поглядаючи на шлях Карпатьї за останні півроку, можна помітити одну нитку, що проходить через усе. У жовтні минулого року він казав, що агенти — це десятилітній проект, у грудні його слова спростували, і він переключився на Claude, а у березні — на дослідження агентів. Спільне у всьому — людина відступає назад, від виконавця до керівника, від того, хто пише код, до того, хто дає інструкції.

На GitHub він написав для AutoResearch короткий науково-фантастичний вступ:

Колись передові дослідження у AI виконувалися фізичними комп’ютерами, які потребували їжі, сну і час від часу синхронізувалися через «збори» голосом.

Ця епоха давно минула.

Він прогнозує 2026 рік одним словом: slopacolypse — поєднання слів slop (похмурий калюжний бруд) і apocalypse (апокаліпсис).

На GitHub, arXiv і у соцмережах з’явиться багато «майже правильного, але не зовсім правильного» контенту. Реальна ефективність і «презентація AI-продуктивності» співіснуватимуть. П’ять місяців тому він казав, що це «зовсім не працює»,

а тепер — що у нього «розумова хвороба через AI». Ця зміна, можливо, і є найглибшим підсумком 2026 року.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити