Публикация была переведена автоматически. Исходный язык: Русский
В мире ИИ-железа сложилась диктатура Nvidia. Дженсен Хуанг убедил мир, что будущее — это собирать огромные кластеры из тысяч видеокарт, опутывать их километрами проводов и жечь мегаватты энергии. Но в тени этой монополии растет Cerebras Systems — компания, которая решила, что Nvidia решает не ту задачу.
Пока Nvidia пытается сделать свои GPU мощнее, Cerebras пытается уничтожить само понятие "передачи данных".
Чтобы понять революцию Cerebras, нужно понять главную проблему современных вычислений. Это не скорость процессора. Это "Стена Памяти" (Memory Wall).

Как это работает у Nvidia (H100/Blackwell): У вас есть мощный чип и есть память (HBM), которая лежит рядом с ним. Чтобы сделать вычисление, данные должны проехать по шине от памяти к ядру. Это как ездить на работу из пригорода: даже на Ferrari вы стоите в пробке.
- Проблема: Энергия тратится не на мысли (вычисления), а на логистику (перемещение байтов).
Как это работает у Cerebras (WSE-3): Они не режут кремниевую пластину (wafer) на 500 маленьких чипов. Они делают один гигантский чип размером с коробку от пиццы.
- Площадь: 46 225 мм² (против ~800 мм² у GPU Nvidia).
- Ядра: 900 000 ядер.
- Память: 44 ГБ сверхбыстрой SRAM.
В WSE-3 память находится внутри ядер. Это не "поездка из пригорода", это когда ваш офис находится в вашей спальне. Задержки (latency) исчезают. Пропускная способность памяти — 21 Петабайт/с. Для сравнения, у топовых Nvidia H100 это около 3-4 ТБ/с. Разница в тысячи раз.
Здесь Cerebras применяет гениальный архитектурный трюк — Weight Streaming (Потоковая передача весов).

Это позволяет масштабировать модели до триллионов параметров без необходимости строить сложные схемы разбиения (model parallelism), от которых страдают инженеры на кластерах Nvidia.
Сейчас весь мир стоит в очереди к трем компаниям: SK Hynix, Samsung и Micron. Только они умеют делать память HBM3e, нужную для чипов Nvidia. Дефицит HBM — это главная причина, почему вы не можете просто пойти и купить сервер с H100.
Cerebras использует SRAM — это стандартная память, которую печатает TSMC прямо на пластине. Им не нужна HBM. Это делает их цепочку поставок неуязвимой для дефицита памяти, который сейчас тормозит всю индустрию. Пока Nvidia ждет память от корейцев, Cerebras просто печатает готовые "вафли" на Тайване.
Компания была готова к триумфальному IPO, но вмешался CFIUS (Комитет по иностранным инвестициям США). Проблема в их главном клиенте — G42 из ОАЭ.

- Суть страха: США считают ОАЭ "шлюзом" в Китай. Вашингтон боится, что чипы Cerebras, проданные арабам, будут тайно использоваться китайскими инженерами для обучения военных ИИ или взлома шифров.
- Парадокс: Cerebras — американская компания, создающая стратегическое преимущество для США. Но из-за того, что их первый крупный чек пришел с Ближнего Востока, их теперь душат свои же регуляторы.
Это наглядный пример того, что в 2025 году чипы — это новое ядерное оружие. Их экспорт контролируется так же жестко, как экспорт урана.
Это, пожалуй, самый интересный тренд для таких стран, как Казахстан. Облачные гиганты (AWS, Azure, Google) предлагают "арендовать" ИИ. Но государства начинают понимать риски:
- Приватность: Вы не хотите загружать данные граждан или государственные секреты на сервера в Вирджинии.
- Зависимость: Вас могут отключить от облака одной кнопкой (санкции).
Cerebras предлагает идеальное решение для Суверенного ИИ. Вместо того чтобы строить дата-центр размером с футбольное поле (что долго, дорого и требует сложнейшей системы охлаждения), вы ставите несколько стоек Cerebras CS-3.
- Они занимают мало места.
- Они потребляют в 40 раз меньше энергии на тот же объем вычислений.
- Вы получаете суперкомпьютер внутри страны, под своим полным контролем.
Cerebras доказала, что закон Мура можно обойти, если изменить подход к сборке.
- Плюс: Они быстрее в обучении и намного быстрее в инференсе (генерации ответов), что критично для чат-ботов.
- Минус: Проприетарный софт. Весь мир пишет на CUDA (язык Nvidia). Переход на стек Cerebras требует усилий.
Вердикт: Если Nvidia — это универсальный грузовик, который может везти что угодно куда угодно, то Cerebras — это сверхскоростной поезд на магнитной подушке. Он может ехать только по своим рельсам, но там, где эти рельсы проложены, он обгоняет грузовик в десятки раз.
Вопрос лишь в том, разрешит ли правительство США этому поезду покинуть депо.
В мире ИИ-железа сложилась диктатура Nvidia. Дженсен Хуанг убедил мир, что будущее — это собирать огромные кластеры из тысяч видеокарт, опутывать их километрами проводов и жечь мегаватты энергии. Но в тени этой монополии растет Cerebras Systems — компания, которая решила, что Nvidia решает не ту задачу.
Пока Nvidia пытается сделать свои GPU мощнее, Cerebras пытается уничтожить само понятие "передачи данных".
Чтобы понять революцию Cerebras, нужно понять главную проблему современных вычислений. Это не скорость процессора. Это "Стена Памяти" (Memory Wall).

Как это работает у Nvidia (H100/Blackwell): У вас есть мощный чип и есть память (HBM), которая лежит рядом с ним. Чтобы сделать вычисление, данные должны проехать по шине от памяти к ядру. Это как ездить на работу из пригорода: даже на Ferrari вы стоите в пробке.
- Проблема: Энергия тратится не на мысли (вычисления), а на логистику (перемещение байтов).
Как это работает у Cerebras (WSE-3): Они не режут кремниевую пластину (wafer) на 500 маленьких чипов. Они делают один гигантский чип размером с коробку от пиццы.
- Площадь: 46 225 мм² (против ~800 мм² у GPU Nvidia).
- Ядра: 900 000 ядер.
- Память: 44 ГБ сверхбыстрой SRAM.
В WSE-3 память находится внутри ядер. Это не "поездка из пригорода", это когда ваш офис находится в вашей спальне. Задержки (latency) исчезают. Пропускная способность памяти — 21 Петабайт/с. Для сравнения, у топовых Nvidia H100 это около 3-4 ТБ/с. Разница в тысячи раз.
Здесь Cerebras применяет гениальный архитектурный трюк — Weight Streaming (Потоковая передача весов).

Это позволяет масштабировать модели до триллионов параметров без необходимости строить сложные схемы разбиения (model parallelism), от которых страдают инженеры на кластерах Nvidia.
Сейчас весь мир стоит в очереди к трем компаниям: SK Hynix, Samsung и Micron. Только они умеют делать память HBM3e, нужную для чипов Nvidia. Дефицит HBM — это главная причина, почему вы не можете просто пойти и купить сервер с H100.
Cerebras использует SRAM — это стандартная память, которую печатает TSMC прямо на пластине. Им не нужна HBM. Это делает их цепочку поставок неуязвимой для дефицита памяти, который сейчас тормозит всю индустрию. Пока Nvidia ждет память от корейцев, Cerebras просто печатает готовые "вафли" на Тайване.
Компания была готова к триумфальному IPO, но вмешался CFIUS (Комитет по иностранным инвестициям США). Проблема в их главном клиенте — G42 из ОАЭ.

- Суть страха: США считают ОАЭ "шлюзом" в Китай. Вашингтон боится, что чипы Cerebras, проданные арабам, будут тайно использоваться китайскими инженерами для обучения военных ИИ или взлома шифров.
- Парадокс: Cerebras — американская компания, создающая стратегическое преимущество для США. Но из-за того, что их первый крупный чек пришел с Ближнего Востока, их теперь душат свои же регуляторы.
Это наглядный пример того, что в 2025 году чипы — это новое ядерное оружие. Их экспорт контролируется так же жестко, как экспорт урана.
Это, пожалуй, самый интересный тренд для таких стран, как Казахстан. Облачные гиганты (AWS, Azure, Google) предлагают "арендовать" ИИ. Но государства начинают понимать риски:
- Приватность: Вы не хотите загружать данные граждан или государственные секреты на сервера в Вирджинии.
- Зависимость: Вас могут отключить от облака одной кнопкой (санкции).
Cerebras предлагает идеальное решение для Суверенного ИИ. Вместо того чтобы строить дата-центр размером с футбольное поле (что долго, дорого и требует сложнейшей системы охлаждения), вы ставите несколько стоек Cerebras CS-3.
- Они занимают мало места.
- Они потребляют в 40 раз меньше энергии на тот же объем вычислений.
- Вы получаете суперкомпьютер внутри страны, под своим полным контролем.
Cerebras доказала, что закон Мура можно обойти, если изменить подход к сборке.
- Плюс: Они быстрее в обучении и намного быстрее в инференсе (генерации ответов), что критично для чат-ботов.
- Минус: Проприетарный софт. Весь мир пишет на CUDA (язык Nvidia). Переход на стек Cerebras требует усилий.
Вердикт: Если Nvidia — это универсальный грузовик, который может везти что угодно куда угодно, то Cerebras — это сверхскоростной поезд на магнитной подушке. Он может ехать только по своим рельсам, но там, где эти рельсы проложены, он обгоняет грузовик в десятки раз.
Вопрос лишь в том, разрешит ли правительство США этому поезду покинуть депо.