Эра «безграничного» доступа к искусственному интеллекту подходит к концу. В конце марта активные пользователи сервиса Anthropic Claude начали сообщать о том, что исчерпывают свои месячные лимиты использования всего за 20 минут. Жалобы хлынули на такие платформы, как Reddit и X, где пользователи рассказывали, как их сеансы внезапно прерывались в часы пик.

Это не единичный случай. В ответ Anthropic заблокировала доступ некоторых сторонних инструментов к тарифным планам с фиксированной стоимостью и изменила настройки по умолчанию, чтобы уменьшить «глубину мышления» модели. Одновременно с этим OpenAI начала ограничивать доступ к своей платформе генерации видео Sora, даже тогда, когда её помощник для программирования Codex привлек аудиторию в четыре миллиона разработчиков в неделю.

Эти ограничения сигнализируют о более широком сдвиге в индустрии: спрос на искусственный интеллект опережает физическую инфраструктуру, необходимую для его поддержки. Это явление, которое всё чаще называют «дефицитом вычислительных мощностей» (compute crunch), показывает, что цифровое обещание бесконечной масштабируемости столкнулось с суровой реальностью физики, производства и энергетики.

Конец модели фиксированной абонентской платы

На протяжении десятилетий интернет работал по модели плоских тарифов. Отправляли вы одно письмо или тысячу — ваша ежемесячная плата оставалась прежней, поскольку предельные затраты на обслуживание дополнительных пользователей были ничтожно малы. ИИ разрушает эту экономическую модель.

По словам Леннарта Хайма, эксперта по политике в области ИИ и бывшего руководителя исследований вычислительных мощностей в RAND Center, инференс ИИ (процесс запуска модели для ответа на запрос пользователя) невероятно ресурсоёмкий. В отличие от загрузки простой веб-страницы, каждый токен, сгенерированный ИИ, требует значительных вычислительных ресурсов.

«Если количество людей, использующих ИИ, возрастает в 10 раз, и каждый из них использует его в 10 раз интенсивнее, вам потребуется почти в 100 раз больше вычислительных мощностей.»

Когда пользователь платит фиксированную ежемесячную сумму, но потребляет ресурсы, стоимость которых значительно выше, провайдер работает в убыток. В результате компании вынуждены внедрять лимиты скорости или по умолчанию переключать пользователей на более мелкие и менее мощные модели. Это объясняет, почему такие функции, как режим «Авто» в OpenAI или выбор более лёгкой модели Claude Sonnet по умолчанию в Anthropic, стали стандартом — это механизмы контроля затрат, маскирующиеся под удобство пользовательского опыта.

Физическое узкое место

Главная проблема заключается в том, что масштабируемость программного обеспечения больше не отделена от физических ограничений. Исторически Кремниевая долина могла экспоненциально расширять свои услуги без строительства новых фабрик. Сегодня масштабирование ИИ требует:

  1. Продвинутых чипов: Тайваньская компания TSMC, производящая большинство мировых передовых чипов для ИИ, объявила о планах потратить до 56 миллиардов долларов в этом году на расширение мощностей. Однако спрос остаётся неудовлетворённым.
  2. Специализированной памяти: Чипы для ИИ требуют огромных объёмов памяти с высокой пропускной способностью. По мере того как эта память перенаправляется в центры обработки данных, её цены растут по всему миру, что потенциально может увеличить стоимость потребительской электроники, такой как смартфоны.
  3. Энергетической инфраструктуры: Международное энергетическое агентство прогнозирует, что к 2030 году потребление электричества мировыми центрами обработки данных удвоится. Anthropic оценивает, что только сектор ИИ в США к 2028 году потребуется 50 гигаватт электрической мощности — что эквивалентно выработке 50 крупных ядерных реакторов.

Производители критически важного оборудования, такого как газовые турбины для генерации электроэнергии, не готовы к такому внезапному спросу. Отрасль, которая росла стабильными темпами в течение десятилетия, не может просто так мгновенно увеличить производство, чтобы удовлетворить потребности технологических гигантов.

Конфликт между НИОКР и обслуживанием пользователей

Внутри компаний, разрабатывающих ИИ, существует вторичное напряжение: конкуренция между обучением (созданием новых, более умных моделей) и инференсом (обслуживанием текущих пользователей).

Согласно последним отчётам, до 60% вычислительных ресурсов в настоящее время выделяются на исследования и разработки (НИОКР). Компании попали в ловушку дилеммы: они должны распределять ресурсы, чтобы сохранить конкурентное преимущество в создании моделей передового уровня, одновременно пытаясь монетизировать существующие технологии через услуги для пользователей. Как отмечает Леннарт Хайм, это не просто техническая проблема, а стратегическое распределение дефицитных физических активов.

Что это значит для будущего

Дефицит вычислительных мощностей — это не просто временное неудобство для разработчиков; это структурный сдвиг в экономике ИИ. По мере того как ИИ становится неотъемлемой частью программирования, медицины и бизнес-операций, доступ к вычислительным мощностям становится синонимом доступа к экономической скорости и возможностям.

Хотя у таких компаний, как OpenAI, на данный момент есть финансовая подушка для поглощения части этого напряжения, долгосрочным решением, скорее всего, станут более высокие цены, а не безлимитный доступ. Рынок корректируется: иллюзия бесконечного и дешевого интеллекта угасает, уступая место реальности, где вычислительные мощности являются конечным и дорогим товаром.

Короче говоря, бум ИИ вышел за пределы своей физической основы. Пока цепочки поставок чипов, памяти и энергии не успеют за цифровым спросом, пользователям следует ожидать более строгих лимитов, роста затрат и более взвешенного подхода к потреблению ИИ.