Процессоры в дефиците: алгоритм Google TurboQuant грозит усугубить кризис еще сильнее

Техпроцесс Intel 18A: частичное решение проблемы, а не панацея

По всей видимости, дефицит компьютерных комплектующих смещает акцент с памяти на центральные процессоры. Согласно данным DigiTimes, нехватка CPU сейчас ощущается гораздо острее: если память доступна, пусть и по завышенным ценам, то процессоры в ряде сегментов стали практически дефицитным товаром. Кризис поставок носит повсеместный характер, охватывая не только серверный сектор, где спрос подскочил из-за взрывного интереса к агентским ИИ, но и потребительский рынок.

Процессоры в дефиците: алгоритм Google TurboQuant грозит усугубить кризис еще сильнее

Создано Grok

Отраслевые инсайдеры подчеркивают, что ситуация с процессорами критичнее: некоторые модели физически отсутствуют в продаже, вне зависимости от готовности покупателя переплачивать. Проблема затрагивает производственные мощности как Intel, так и AMD.

Эксперты надеются, что оптимизация техпроцесса Intel 18A немного выправит ситуацию, однако это будет лишь локальным улучшением. Данная технология ориентирована на линейку Panther Lake и недавние «компактные» решения Core Series 3 (Wildcat Lake). Устаревшие серверные и пользовательские CPU это не спасет, не говоря уже об AMD, чья продукция полностью зависит от конвейеров TSMC.

Наиболее дефицитными остаются актуальные процессоры Raptor Lake, выпускаемые по зрелым нормам техпроцесса. И это происходит на фоне планов Intel повторно выпустить данные модели, чтобы продлить жизненный цикл платформы LGA1700 с поддержкой DDR4.

Распространение агентских ИИ стало мощным драйвером спроса на CPU. Как мы уже отмечали, именно центральные процессоры рискуют стать «бутылочным горлышком» для всей индустрии.

Более того, алгоритм Google TurboQuant, на который возлагали большие надежды, может лишь усугубить нагрузку на отрасль. Аналитики полагают, что вместо снижения спроса технология спровоцирует его рост.

TurboQuant — это метод сжатия данных для ИИ, теоретически позволяющий сократить расход памяти при обучении моделей в 4–8 раз. Сразу после анонса акции производителей микросхем памяти просели, однако радость может быть преждевременной. К такому выводу склоняются эксперты, опрошенные Financial Times.

Профессор Квон Сок-джун из Университета Сонгюнкван предупреждает: колоссальное удешевление запуска больших языковых моделей приведет к тому, что задачи, ранее бывшие экономически нецелесообразными, станут доступными. Это приведет к лавинообразному росту запросов на вычислительные мощности.

К таким задачам относятся, например, постоянно активные ИИ-ассистенты программиста или одновременная работа множества автономных ИИ-агентов. С ним солидарен и Хан Ин-су, соавтор исследований, легших в основу TurboQuant. Он отмечает, что алгоритм позволит реализовывать прежде невыполнимые сценарии: от обработки сверхдлинных контекстов без потери качества до внедрения мощных ИИ-решений в компактные устройства.

Аналитик Ким Ён-гун сравнивает ситуацию с внедрением Google Kubernetes: опасения, что технология «контейнеризации» снизит спрос на серверы из-за повышения эффективности, оказались ошибочными. Напротив, доступность и снижение издержек привели к многократному расширению сферы применения. Рынок недооценил долгосрочные последствия: развитие инноваций в ИИ потребует всё больше памяти как для обучения, так и для инференса.

Мы наблюдаем классический «парадокс Джевонса»: повышение эффективности использования ресурса приводит не к его экономии, а к росту потребления из-за удешевления конечного продукта. Пока что TurboQuant не повлиял на рынок, однако его реальное влияние станет ощутимым после презентации на Международной конференции по обучению представлениям в Бразилии в конце апреля, когда технология станет доступна широкому кругу специалистов для независимого тестирования.

 

Источник: iXBT

Читайте также