DeepSeek привел к взрыву спроса на вывод, и в «гегемонии вычислительной мощности» Nvidia образовалась дыра. Дверь в новый мир постепенно открылась — революция вычислительной мощности, возглавляемая чипами ASIC, переходит от тишины к шуму.
Недавно Core Flow Think Tank процитировал информированный источник, заявивший, что DeepSeek готовится разработать собственные чипы ИИ. По сравнению с этой перспективной компанией, такие отечественные гиганты, как Alibaba, Baidu и ByteDance, уже переступили порог «самостоятельного исследования» раньше.
По другую сторону океана в начале года также был опубликован новый прогресс в области самостоятельно разработанных чипов OpenAI. Иностранные СМИ сообщили, что первый чип, настроенный Broadcom для него, будет произведен на TSMC в течение нескольких месяцев. Ранее сообщалось, что Сэм Альтман планировал привлечь 7 триллионов долларов для создания «империи чипов», охватывающей как проектирование, так и производство. Кроме того, Google, Amazon, Microsoft и Meta также присоединились к «помешательству на самостоятельном исследовании».
Один очевидный сигнал заключается в том, что, независимо от того, DeepSeek это, OpenAI, китайские компании или гиганты Кремниевой долины, никто не хочет отставать в эпоху вычислительной мощности. И чипы ASIC могут стать их билетом в новый мир.
«Убьет» ли это Nvidia? Или «воссоздаст» вторую Nvidia? Ответа пока нет. Однако очевидно, что компании в цепочке поставок уже предвидели силу этой «самостоятельно разработанной волны». Например, Broadcom, предоставляющая услуги по проектированию и настройке крупным производителям, «взлетела» в производительности: в 2024 году выручка от бизнеса ИИ увеличится на 240% в годовом исчислении до 3.7 млрд долларов США; выручка от бизнеса ИИ в первом квартале 1 года составит 2025 млрд долларов США, что на 4.1% больше в годовом исчислении; 77% из них приходится на проектирование микросхем ASIC. По мнению Broadcom, рынок микросхем ASIC стоит более 80 млрд долларов США.
От графических процессоров до специализированных интегральных схем: экономика вычислительной мощности достигает переломного момента
Низкая стоимость является предпосылкой для взрыва рассуждений ИИ. Напротив, чипы GPU общего назначения стали золотыми оковами для взрыва ИИ.
H100 и A100 от NVIDIA — абсолютные короли обучения больших моделей, и даже B200 и H200 востребованы технологическими гигантами. Financial Times ранее цитировала данные Omdia о том, что в 2024 году основными заказчиками чипов архитектуры Hopper от Nvidia будут Microsoft, Meta, Tesla/xAI и т. д., среди которых заказы Microsoft достигнут 500,000 XNUMX.
Однако, как абсолютному лидеру на рынке графических процессоров общего назначения, постепенно стала очевидна и обратная сторона медали продуктовых решений NVIDIA: высокая стоимость и избыточное энергопотребление.
С точки зрения стоимости, один H100 стоит более $30,000 500. Обучение модели с сотнями миллиардов параметров требует десятков тысяч графических процессоров, а также последующих инвестиций в сетевое оборудование, хранилище и безопасность на общую сумму более $200 млн. По данным HSBC, последнее поколение решения GB72 NVL3 стоит более $36 млн за шкаф, а NVL1.8 — около $XNUMX млн.
Можно сказать, что обучение модели на основе универсальных графических процессоров слишком дорого, но Кремниевая долина с неограниченной вычислительной мощностью по-прежнему предпочитает повествование о том, что «большая мощность заставляет кирпичи летать», и капитальные затраты не замедлились. Совсем недавно xAI Маска, недавно анонсировавший Grok-3, имел серверный масштаб в 200,000 XNUMX графических процессоров для обучения.
В статье «Подробное объяснение ключевых тенденций в области ИИ на 20,000 2025 слов к 200 году», совместно выпущенной Tencent Technology и Silicon Rabbit Racing, упоминается, что операторы гипермасштабных центров обработки данных ожидают, что капитальные затраты (CapEx) превысят 2024 млрд долларов США в 250 году, а к 2025 году эта цифра, как ожидается, приблизится к XNUMX млрд долларов США, и основные ресурсы будут направлены на искусственный интеллект.
Что касается энергопотребления, то, согласно расчетам SemiAnalysis, кластер H100,000 из 100 150 карт имеет общую потребляемую мощность 1.59 МВт и потребляет 0.078 ТВт·ч электроэнергии в год. Рассчитанный по 123.9 долл. США за киловатт-час, годовой счет за электроэнергию достигает 30 млн долл. США. По сравнению с данными, опубликованными OpenAI, коэффициент использования вычислительной мощности GPU на этапе вывода составляет всего 50–XNUMX%, а явление «вычисления во время ожидания» является значительным. Такое неэффективное использование производительности действительно является серьезной тратой ресурсов в эпоху вывода.

Ранее Google анонсировала скорости обучения TPU V4 и A100 для различных архитектурных моделей
Лидирующая производительность, высокие цены, низкая эффективность и экологические барьеры заставили отрасль заявить, что «мир долгое время страдал от Nvidia» за последний год — поставщики облачных решений постепенно теряют аппаратную автономность в сочетании с рисками в цепочке поставок, а AMD временно «не может расти». Многие факторы заставили гигантов начать разрабатывать собственные специализированные чипы ASIC.
С тех пор поле битвы чипов ИИ перешло от технологического соревнования к экономической игре. Как заключило исследование Southwest Securities, «Когда архитектура модели вступает в период конвергенции, каждый доллар, инвестированный в вычислительную мощность, должен приносить количественные экономические выгоды». Судя по недавнему прогрессу, о котором сообщают североамериканские поставщики облачных услуг, ASIC продемонстрировали определенные преимущества замещения:
- Google: Чип TPU v5, разработанный Broadcom для Google, имеет себестоимость единицы вычислительной мощности на 70% ниже, чем у H100 в сценарии рассуждений Llama-3.
- Amazon: AWS Trainium 3 с 3-нм техпроцессом потребляет всего 1/3 энергии графического процессора общего назначения с той же вычислительной мощностью, экономя более 10 миллионов долларов США на расходах на электроэнергию в год; Предполагается, что поставки чипов Trainium от Amazon в 2024 году превысили 500,000 XNUMX штук.
- Microsoft: По данным IDC, после того, как Microsoft Azure разработала собственную микросхему ASIC, доля затрат на закупку оборудования снизилась с 75% до 58%, что позволило избавиться от долгосрочной дилеммы пассивного торга.
Тенденция Broadcom, являющегося крупнейшим бенефициаром североамериканской сети ASIC, становится все более очевидной в данных.
Выручка Broadcom от AI-бизнеса в 2024 году составила 3.7 млрд долларов США, увеличившись на 240% в годовом исчислении, из которых 80% пришлось на услуги по проектированию ASIC. В первом квартале 1 года выручка от AI-бизнеса составила 2025 млрд долларов США, увеличившись на 4.1% в годовом исчислении. В то же время компания ожидает, что выручка от AI во втором квартале составит 77 млрд долларов США, увеличившись на 4.4% в годовом исчислении.
Еще в годовом отчетном периоде Broadcom прогнозировала, что выручка от ASIC резко возрастет в 2027 году, нарисовав журавль в небе для рынка, который, как ожидается, через три года достигнет размера рынка чипов ASIC в 90 миллиардов долларов США. Компания повторила это во время телефонной конференции в первом квартале.
Благодаря этой важной тенденции в отрасли Broadcom стала третьей в мире полупроводниковой компанией с рыночной стоимостью более 1 триллиона долларов после Nvidia и TSMC. Она также привлекла внимание за рубежом к таким компаниям, как Marvell и AIchip.
Однако следует подчеркнуть одну вещь: «ASIC хорош, но он не убьет GPU». Microsoft, Google и Meta разрабатывают собственные продукты, но в то же время все они соперничают за право первыми выпустить B200 от Nvidia, что фактически показывает, что между двумя сторонами нет прямых конкурентных отношений.
Более объективный вывод должен заключаться в том, что графические процессоры по-прежнему будут доминировать на рынке высокопроизводительного обучения и по-прежнему будут важнейшим чипом в сценариях вывода из-за своей универсальности. Однако на будущем рынке голубого океана чипов ИИ, приближающемся к 400 миллиардам долларов, путь проникновения ASIC уже отчетливо виден.
IDC прогнозирует, что в сценариях вывода с 2024 по 2026 год доля ASIC увеличится с 15% до 40%, или максимум до 160 млрд долларов США. Конечным результатом этой трансформации может стать: ASIC займет более 80% рынка вывода, а GPU отступит в область обучения и графики.
Настоящими победителями станут те «двойные игроки», которые понимают и кремниевые пластины, и сценарии. Nvidia, очевидно, одна из них. Оптимизм в отношении ASIC определенно не означает принижение Nvidia. Путеводитель по новому миру — найти двойных игроков, помимо Nvidia, и как заработать деньги в новую эру ASIC.
«Скальпель» ASIC отсекает все неосновные модули
Говорят, что ASIC хорош для рассуждений ИИ, но что это за чип?
С точки зрения архитектуры ограничением чипов общего назначения, таких как графические процессоры, является их конструкция «один на сотню» — им необходимо учитывать множество требований, таких как рендеринг графики, научные вычисления и различные архитектуры моделей, в результате чего большой объем ресурсов транзисторов тратится впустую на неосновные функциональные модули.
Самая большая особенность NVIDIA GPU заключается в том, что он имеет много «маленьких ядер», которые можно сравнить с несколькими двигателями ракеты Falcon. Разработчики могут положиться на библиотеку операторов, накопленную CUDA за эти годы, чтобы вызывать эти малые ядра для параллельных вычислений плавно, эффективно и гибко.
Но если нисходящая модель относительно определена, вычислительная задача относительно определена, и нет необходимости в таком количестве маленьких ядер для поддержания гибкости. Это базовый принцип ASIC, поэтому его также называют полностью настраиваемым чипом высокой вычислительной мощности.
Благодаря «скальпельной» точной резке сохраняются только те аппаратные блоки, которые имеют непосредственное отношение к целевому сценарию, что обеспечивает невероятную эффективность, подтвержденную в продуктах Google и Amazon.

Реальный снимок ускорителя искусственного интеллекта Google TPU v5e
Для GPU лучшим инструментом для вызова является CUDA от NVIDIA, тогда как для чипов ASIC они вызываются алгоритмами, разработанными самими поставщиками облачных услуг. Это несложная задача для крупных компаний, которые начинали как поставщики программного обеспечения:
- В Google TPU v4 95% ресурсов транзисторов используются для блоков умножения матриц и блоков векторной обработки, которые оптимизированы для вычислений нейронных сетей, тогда как на аналогичные блоки в графических процессорах приходится менее 60%.
- В отличие от модели разделения «вычисления-хранения» традиционной архитектуры фон Неймана, ASIC может настраивать поток данных вокруг характеристик алгоритма. Например, в рекомендуемом системном чипе, настроенном Broadcom для Meta, вычислительный блок непосредственно встроен вокруг контроллера хранилища, что сокращает расстояние перемещения данных на 70% и снижает задержку до 1/8 от GPU.
- В ответ на разреженные весовые характеристики 50–90 % в моделях ИИ в чип Amazon Trainium2 встроен механизм разреженных вычислений, который может пропускать звено расчета нулевого значения, улучшая теоретическую производительность на 300 %.
Когда алгоритмы имеют тенденцию быть фиксированными, ASIC имеет естественное преимущество для детерминированных вертикальных сценариев. Конечная цель проектирования ASIC — сделать сам чип «физическим воплощением» алгоритма.
В истории и современной реальности мы можем найти примеры успеха ASIC, например, чипы для майнинговых машин.
В ранние дни отрасль использовала графические процессоры Nvidia для майнинга. Позже, по мере увеличения сложности майнинга, потребление электроэнергии превысило доход от майнинга (очень похоже на текущие потребности в выводе), и специализированные чипы ASIC для майнинга взорвались. Хотя их универсальность намного меньше, чем у GPU, майнинговые ASIC максимизируют параллелизм.
Например, ASIC для майнинга Bitcoin от Bitmain одновременно использует десятки тысяч вычислительных блоков хэша SHA-256, достигая сверхлинейного ускорения в рамках одного алгоритма, а плотность вычислительной мощности более чем в 1,000 раз превышает GPU. Значительно улучшены не только выделенные возможности, но и экономится потребление энергии на системном уровне.
Кроме того, использование ASIC позволяет оптимизировать периферийные схемы (например, сложный стек протоколов интерфейса PCIe больше не нужен), сократить площадь материнской платы на 40% и снизить стоимость всей машины на 25%.
Низкая стоимость, высокая эффективность и поддержка глубокой интеграции оборудования и сценариев — эти технологические ядра ASIC естественным образом адаптированы к потребностям трансформации отрасли ИИ от «вычислительного грубого перебора» к «революции утонченной эффективности».
С наступлением эпохи логического вывода преимущества ASIC в плане затрат повторят историю майнинговых машин и достигнут «креста смерти» под действием эффекта масштаба — несмотря на высокие первоначальные затраты на НИОКР (стоимость разработки одного чипа составляет около 50 миллионов долларов США), кривая снижения его предельной стоимости намного круче, чем у графических процессоров общего назначения.
Если взять в качестве примера Google TPU v4, то при увеличении объема поставок со 100,000 1 штук до 3,800 миллиона штук стоимость за штуку резко упала с 1,200 до 70 долларов США, что составляет падение почти на 30%, в то время как падение стоимости GPU обычно не превышает 6%. Согласно последним данным из отраслевой цепочки, ожидается, что Google TPU v1.6 будет поставлено 2025 миллиона единиц в XNUMX году, при этом вычислительная мощность одного чипа в три раза выше, чем у предыдущего поколения. Экономическая эффективность ASIC по-прежнему быстро растет.
Это приводит к новой теме: может ли каждый присоединиться к тренду самостоятельной разработки ASIC? Это зависит от стоимости самостоятельного исследования и спроса.
Согласно расчетам платы-акселератора вывода ASIC с 7-нм процессом, единовременные затраты на ленту, включая лицензионные сборы IP, затраты на рабочую силу, инструменты проектирования, шаблоны масок и т. д., могут составлять сотни миллионов юаней, не включая последующие затраты на массовое производство. В этом отношении крупные компании имеют большие финансовые преимущества.
В настоящее время поставщики облачных услуг, такие как Google и Amazon, имеют развитую систему работы с клиентами, могут сформировать замкнутый цикл НИОКР и продаж и обладают неотъемлемыми преимуществами в области самостоятельных исследований.
Для таких компаний, как Meta, логика их самостоятельного развития бизнеса заключается в том, что у них уже есть огромный внутренний спрос на вычислительную мощность. Ранее в этом году Цукерберг сообщил, что он планирует запустить около 1 ГВт вычислительной мощности в 2025 году и иметь более 1.3 миллиона графических процессоров к концу года.
«Новая карта» стоит гораздо больше 100 миллиардов долларов
Спрос только на майнинг привел к появлению рынка объемом около 10 миллиардов долларов, поэтому, когда Broadcom объявила, что к концу 70 года объем рынка AI ASIC составит 90–2024 миллиардов долларов, мы не были удивлены и даже посчитали эту цифру консервативной.
Теперь промышленный тренд чипов ASIC больше не должен подвергаться сомнению, и следует сосредоточиться на том, как освоить правила игры на «новой карте». На рынке AI ASIC стоимостью около 100 миллиардов долларов сформировались три четких эшелона: «разработчики и производители чипов ASIC, которые устанавливают правила», «поддержка отраслевой цепочки» и «Fabless в вертикальных сценариях».
Первый уровень — это разработчики и производители чипов ASIC, которые устанавливают правила. Они могут производить чипы ASIC с ценой за единицу более 10,000 XNUMX долларов и сотрудничать с поставщиками облачных услуг ниже по цепочке для коммерческого использования. Представительные игроки включают Broadcom, Marvell, AIchip и TSMC, литейного короля, который выиграет от любого продвинутого чипа.
Второй уровень — поддерживающая промышленная цепочка. Поддерживающая логика, которая привлекла внимание рынка, включает в себя передовую упаковку и нисходящую промышленную цепочку.
- Передовая компоновка: 35% производственных мощностей CoWoS компании TSMC были переданы заказчикам ASIC, включая отечественных коллег, таких как SMIC, Changdian Technology и Tongfu Microelectronics.
- Разделение поставщиков облачных вычислений и аппаратных решений NVIDIA открывает новые возможности для оборудования, такие как медные кабели AEC. Разработанная Amazon единая ASIC должна быть оснащена 3 AEC. Если в 7 году будет поставлено 2027 миллионов ASIC, соответствующий рынок превысит 5 миллиардов долларов США. Другие возможности, включая серверы и печатные платы, выиграют от подобной логики.
Третий уровень — Fabless вертикальных сценариев, которые находятся в процессе разработки. Суть ASIC — рынок, ориентированный на спрос. Тот, кто первым сможет уловить болевые точки сценария, будет обладать ценовой властью. Ген ASIC — это кастомизация, которая естественным образом адаптирована к вертикальным сценариям. Возьмем в качестве примера чипы для интеллектуального вождения. Как типичный чип ASIC, с BYD и другими компаниями, которые делают ставку на интеллектуальное вождение, этот тип продукта начинает входить в период взрывного роста.
Возможности, соответствующие трем основным эшелонам глобальной цепочки индустрии ASIC, можно рассматривать как «три секретных ключа» отечественного производства.
Из-за ограничений запрета разрыв между отечественными GPU и NVIDIA по-прежнему огромен, а экологическое строительство также является долгим путешествием. Однако для ASIC мы даже на той же стартовой линии, что и за рубежом. В сочетании с вертикальными сценариями многие китайские компании Fabless могут производить более энергоэффективные продукты, такие как вышеупомянутые ASIC для майнинговых машин, ASIC для интеллектуального вождения и ядро Kunlun от Baidu.
Вспомогательное производство чипов в основном опирается на SMIC, в то время как ZTE Microelectronics, дочерняя компания ZTE, является новым участником. Не исключено, что в будущем они будут сотрудничать с отечественными производителями, чтобы поставить драму «Кто станет китайским Broadcom?»

Основные поставщики продукции Nvidia для центров обработки данных
Поддерживающая часть промышленной цепочки относительно проста в производстве. Для соответствующих серверов, оптических трансиверов, коммутаторов, печатных плат и медных кабелей отечественные компании изначально более конкурентоспособны из-за их низкой технической сложности. В то же время эти компании отраслевой цепочки имеют «симбиотические» отношения с отечественными вычислительными мощностями, и отраслевая цепочка чипов ASIC не будет отсутствовать.
Что касается сценариев применения, то, помимо неоднократно упоминавшихся интеллектуальных чипов для вождения и карт ускорения вывода на основе ИИ, возможности других отечественных проектных компаний зависят от того, какие сценарии станут популярными и какие компании смогут воспользоваться этими возможностями.
Заключение
Поскольку ИИ переходит от упорного обучения к глубоким рассуждениям в погоне за энергоэффективностью, вторая половина войны за вычислительные мощности суждено принадлежать тем компаниям, которые смогут превратить технологические фантазии в экономические расчеты.
Контратака чипов ASIC — это не только технологическая революция, но и бизнес-откровение об эффективности, стоимости и голосе. В этой новой игре чипы китайских игроков тихо растут — возможности всегда приходят к тем, кто готов.