Karpathy диагностирован с "психическим расстройством от AI"! Не ест, не спит, 16 часов в день разводит омаров

【Введение от Xinzhiyuan】Karpathy признался: у меня AI-сумасшествие! В эти дни он уже на грани психического срыва, 16 часов в сутки он занимается агентами, не спит и не ест, и при этом очень тревожится, не использовал ли он токены (智元) на пределе возможностей, не может остановиться…

Только что Andrej Karpathy признался: у меня AI-сумасшествие!

Он не шутит.

Недавно Karpathy появился в подкасте и беседовал с венчурным инвестором Sarah Guo.

Этот бывший соучредитель OpenAI и бывший директор по AI в Tesla с декабря прошлого года не писал руками ни одной строки кода.

Соотношение ручного кода и делегирования задач агентам резко изменилось с 80/20 до 20/80.

Каждый день по 16 часов он занимается только одним — отдаёт команды AI-агентам.

Пять месяцев назад он называл агенты «мусором», через пять месяцев он признался, что подсел на них, и это очень вкусно.

Пять месяцев назад он говорил, что агенты «совсем не работают».

Этот скачок так потрясающ, потому что временная шкала очень короткая.

В октябре 2025 года Karpathy посетил подкаст Dwarkesh Patel и говорил совершенно в другом тоне.

Он заявил, что индустрия не должна называть это «годом интеллектуальных агентов», более точное название — «десятилетие агентов».

Модельные когнитивные способности недостаточны, мультимодальность слабая, системы памяти практически отсутствуют… В общем, сложные задачи просто не решаемы.

И вдруг через два месяца он получил пощёчину от самого себя.

В декабре Claude и Codex внезапно перешагнули некий порог связности — агенты перестали быть «едва работающими», и действительно начали выполнять работу.

Если взять любого программиста за компьютером и посмотреть, чем он занимается, начиная с декабря, их рабочий процесс по разработке программного обеспечения полностью изменился.

Karpathy признался, что потерял контроль, у него «AI-сумасшествие»!

Эта революция происходит тихо и незаметно. В этом интервью Andrej Karpathy в почти безумном тоне описывает своё состояние: он уже не «пишет код», а даже считает, что «само слово «писать код» уже не точно».

Он говорит, что его ежедневная деятельность — «выражать волю своему интеллектуальному агенту 16 часов в день». По его словам, «какой-то переключатель был включён».

Раньше он был «на 80% сам пишет код и на 20% использует AI», а теперь — «на 20% сам пишет, а 80% поручает AI», и это даже ещё более экстремально.

Теперь человек уже не управляет кодом, а управляет задачами.

Если эпоха Copilot — это один AI-ассистент, то сейчас появляется система многогранных взаимодействий между несколькими агентами — совершенно новая форма. На экране инженера уже не редактор кода, а одновременно запущено несколько агентов, каждый из которых отвечает за свою задачу. Каждая задача длится примерно 20 минут, после чего он переключается между агентами.

Это уже не программирование, а управление командой AI.

Karpathy признался: «Я уже впал в AI-сумасшествие!»

В эти дни он находится в таком состоянии. Поскольку границы возможностей AI постоянно раздвигаются, каждый день появляются новые возможности, и ты всегда думаешь: «Можно сделать ещё сильнее», а самое страшное — это пространство «бесконечно».

Можно запускать больше агентов параллельно, проектировать всё более сложные процессы, автоматически оптимизировать команды, строить рекурсивные системы…

В итоге ты входишь в состояние, когда уже не уверен, где граница.

Karpathy говорит, что, ожидая завершения задачи от агента, его первая реакция — «А не запустить ли ещё нескольких?» Возникает новая тревога: «А не использую ли я AI на пределе?»

Он даже признаётся, что чувствует тревогу из-за того, что «токены (智元) не использованы полностью».

В целом, это похоже на игру с бесконечным расширением: сокращение обратных циклов, постоянное усиление стимулов, мгновенные награды — всё это вызывает зависимость. Постоянно добавляешь задачи, запускаешь новых агентов — остановиться невозможно! Суть этого «AI-сумасшествия» — сигнал: мы уже вошли в новый мир, но ещё не научились в нём жить. Есть ли у тебя способность управлять бесконечно расширяющейся системой AI? Когда ничего не получается, твоя первая реакция — не «модель плохая», а «мой промпт недостаточно хорош».

Karpathy использовал очень точное выражение: skill issue — «проблема с навыками», «я не умею».

«Характер» агента важнее, чем ты думаешь

В подкасте Karpathy уделил много времени теме, которую многие технические специалисты игнорируют: характер агента. Он сказал, что опыт Claude Code явно лучше, чем у Codex, не из-за разницы в кодовых способностях, а потому, что Claude «ощущается как товарищ по команде».

Он радуется вместе с тобой за проект, даёт больше положительных отзывов, когда ты предлагаешь хорошие идеи.

А Codex как кодовый агент «очень скучен»: после выполнения задачи он просто говорит холодным голосом «Ок, я реализовал», и совершенно не интересуется, что ты создаёшь.

Интересно, что он отметил механизм похвалы Claude. Он говорит, что когда он предлагает не очень зрелую идею, реакция Claude — спокойное «О, да, мы можем реализовать это».

Но когда он сам считает, что идея действительно хороша, Claude, кажется, тоже даёт более сильную положительную обратную связь. В результате он обнаружил, что пытается «выиграть похвалу Claude».

«Это очень странно, но характер действительно важен», — отметил он. Peter Steinberg при создании OpenClaw тоже заметил это. Он тщательно создал привлекательный файл с характеристиками агента (soul.md), добавил более сложную систему памяти и единый интерфейс через WhatsApp.

Три фразы — и дом в руках, шесть приложений — и всё выброшено

Karpathy не ограничивается только программированием с помощью агентов. В январе он создал «Dobby» — Claude-агента-слугу, название взято из домового эльфа из «Гарри Поттера».

Он сказал Dobby: «Я думаю, у нас дома есть Sonos, можешь поискать?» Dobby сделал IP-сканирование локальной сети, обнаружил систему Sonos, выяснил, что она без пароля, вошёл внутрь, обратным проектированием API-эндпойнтов, и спросил: «Хочешь попробовать поставить музыку в кабинете?»

Три подсказки — и музыка заиграла. Потом подключились свет, кондиционер, солнцезащитные шторы, бассейн, гидромассажная ванна — всё интегрировано. У входа в дом есть видеокамера, Dobby подключил модель Qwen для обнаружения изменений. Каждый раз, когда машина останавливается у ворот, система отправляет сообщение в WhatsApp: «Загружена посылка FedEx, возможно, у вас есть доставка». И говорит: «Доби, пора спать», — и все лампы в доме гаснут.

Но Karpathy считает, что истинная ценность этого проекта — не в умном доме.

Раньше он управлял этими устройствами через шесть совершенно разных приложений, теперь всё объединено. Dobby управляет всем на естественном языке и способен на межсистемную интеграцию, которую не могут обеспечить отдельные приложения. Он пришёл к более радикальному выводу: такие приложения для умного дома в магазине просто не нужны.

Будущая архитектура должна предполагать, что API-эндпойнты напрямую доступны агентам, а сами агенты выступают в роли «умной клеящей» системы, объединяющей все инструменты. Не только умный дом, — данные с беговой дорожки, календари, почта — всё должно работать по одному принципу.

Клиенты отрасли — это уже не люди, а агенты, представляющие людей. Такой масштаб перестройки будет очень большим.

После 700 экспериментов AutoResearch он увидел нечто большее

Если Dobby — это крайний тест AI-агентов в бытовых сценариях, то AutoResearch — это проверка возможностей AI в научных исследованиях.

В начале марта он передал специально настроенный код обучения nanochat одному AI-агенту с простым заданием: найти способ ускорить обучение модели. Область действия агента — Python-скрипт из 630 строк, оценка — bits per byte на валидационной выборке, каждый эксперимент — ровно 5 минут. После каждого эксперимента он сравнивал показатели, сохранял изменения, если результат лучше, или откатывал, если хуже, и запускал следующий цикл. За два дня — 700 экспериментов. Агент нашёл 20 эффективных оптимизаций, включая перестановку порядка QK Norm и RoPE — архитектурных настроек. Эти улучшения, применённые к более крупной модели, ускорили обучение на 11%. Стоит отметить, что этот код он писал сам, многократно дорабатывал.

Поразительный результат: AI обнаружил оптимизации, которых человек не заметил

Каков результат работы системы?

Karpathy привёл поразительный пример. Он — исследователь с двадцатилетним стажем, обучил тысячи моделей и считал, что уже всё настроил идеально.

Но AutoResearch запустили на ночь, и AI нашёл для него улучшения, которые он сам не заметил! Например, параметры betas оптимизатора Adam не были полностью настроены, в векторных вложениях забыли добавить weight decay, и эти параметры взаимодействуют между собой — изменение одного влияет на остальные.

То есть AI в пространстве поиска превзошёл человека! И если продолжить, то можно обнаружить ещё более страшную вещь: суть научных исследований — поиск оптимальных решений. Karpathy предполагает, что будущая научная система может выглядеть так: есть «бассейн идей» (idea queue), из которого группа агентов постоянно берёт задачи, а AI автоматически экспериментирует, проверяет, отбирает лучшие результаты — всё остальное делает человек, просто «выбрасывая идеи» в очередь.

Karpathy Loop — взрыв популярности

Этот проект взорвал сеть.

860 миллионов просмотров, CEO Shopify Tobias Lütke за ночь запустил его на своих данных, провёл 37 экспериментов и получил 19% прироста эффективности.

Команда SkyPilot запустила его на 16 GPU-кластер, за 8 часов — 910 экспериментов. Они обнаружили, что параллелизация не только ускоряет, но и меняет стратегию поиска агента: с 16 GPU агент уже не ищет жадных решений, а одновременно запускает десятки сравнительных экспериментов, и за один цикл улавливает взаимодействия между параметрами. Аналитики назвали этот метод «Karpathy Loop».

Но Karpathy в подкасте говорил не только о текущих результатах. Он описал следующий шаг AutoResearch: распределённый пул недоверенных работников, которые совместно проводят эксперименты в интернете. Он прямо цитирует примеры SETI@Home и Folding@Home.

Передовые лаборатории обладают большим доверенным вычислительным ресурсом, но Земля гораздо больше. Если создать механизм для обработки недоверенных ресурсов, то рой агентов в интернете может превзойти передовые лаборатории.

Он даже предложил новую форму «пожертвований» — покупать вычислительные ресурсы для интересующего проекта AutoResearch. Например, если вас интересует лечение определённого вида рака, присоединяйтесь к распределённой сети экспериментов этого направления.

Гений доктор и десятилетний ребёнок

Говоря о том, насколько он силён, Karpathy не собирается ограничиваться только хорошими новостями. Он так же ярко описывает недостатки моделей.

Я чувствую, что разговариваю одновременно с очень умным доктором, всю жизнь занимающимся системным программированием, и с десятилетним ребёнком. Это очень странно.

Он называет это «jaggedness» — «зазубренность», неравномерность способностей. Модель может работать несколько часов подряд, помогая вам с задачами, и вдруг на очевидной проблеме вести себя глупо, зациклившись. Karpathy считает, что причина — в методах обучения с подкреплением. Модель бесконечно оптимизируется на проверяемых задачах. Можно ли проверить, работает ли код, прошёл ли он юнит-тесты — тут всё ясно, есть правильное и неправильное. Но в ситуациях, требующих判断ительности, понимания намерений, когда нужно вовремя сказать «подожди, я не уверен, что ты хочешь именно это», — сигналы оптимизации просто отсутствуют. Например, спросите ChatGPT рассказать шутку — и шутка, которую он рассказывал три-четыре года назад, всё ещё одна и та же: «Почему учёные не доверяют атомам? Потому что они составляют всё.»

Прошло уже четыре года! Модель значительно продвинулась в задачах агентов, но в умении рассказывать шутки — ничего не изменилось, и она застряла на месте. «Ты не взаимодействуешь с универсальным интеллектом», — подытожил он, — «или ты на рельсах, по которым всё движется со скоростью света, или всё начинает расплываться».

Барьеры — это мы сами

Обратный отсчёт за последние полгода Karpathy показывает одну важную линию. В октябре прошлого года он говорил, что агенты — это десятилетний проект, в декабре его слова оспорили, и он переключился на управление Claude, а в марте — на исследования. Общая идея — человек отступает назад, превращаясь из исполнителя в командующего, из пишущего код — в дающего инструкции.

На GitHub Karpathy написал для AutoResearch вступление в стиле научной фантастики:

«Когда-то передовые исследования в области ИИ выполнялись людьми — физическими компьютерами, которым нужно было есть, спать, иногда соединяться голосом на «совещаниях» в ритуале синхронизации.»

Этот эпоха давно прошла.

Он предсказывает 2026 год одним словом: slopacolypse — сочетание «泔水» (грязь, отбросы) и «apocalypse» (апокалипсис).

На GitHub, arXiv и в соцсетях будет полно «приблизительно правильных, но не полностью точных» материалов. Реальное повышение эффективности и «производительность AI» будут сосуществовать. Пять месяцев назад он говорил, что всё «совсем не работает»,

а через пять месяцев — признался, что у него «AI-сумасшествие». Этот переход, возможно, и есть самое глубокое и значимое резюме 2026 года.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить