нейросети22 марта 2026 г.

NVIDIA представила Groq 3 LPU — первый в мире чип для языковой обработки со скоростью 1500 токенов в секунду

На конференции GTC 2026 NVIDIA анонсировала Groq 3 — принципиально новый тип ИИ-ускорителя, Language Processing Unit (LPU), оптимизированный для инференса. Чип обеспечивает пропускную способность памяти 150 ТБ/с и генерирует до 1500 токенов в секунду.

NVIDIA представила Groq 3 LPU — первый в мире чип для языковой обработки со скоростью 1500 токенов в секунду

На конференции GTC 2026 глава NVIDIA Дженсен Хуанг представил Groq 3 LPU — первый чип нового класса Language Processing Unit, созданный специально для инференса больших языковых моделей. Чип основан на технологиях стартапа Groq, который NVIDIA приобрела в декабре 2025 года за $20 млрд. Это принципиально новый подход к ускорению генерации текста нейросетями.

В отличие от традиционных GPU, Groq 3 LPU использует архитектуру с интегрированной SRAM-памятью вместо внешней HBM. Чип содержит 500 МБ SRAM и обеспечивает пропускную способность памяти 150 ТБ/с — это в семь раз больше, чем у GPU Rubin с его 22 ТБ/с. Вычислительная мощность составляет 1,2 петаФЛОПС при 8-битных операциях.

Ключевое преимущество LPU — скорость генерации токенов. Groq 3 способен выдавать до 1500 токенов в секунду, что критически важно для агентных ИИ-систем, где множество моделей общаются друг с другом в реальном времени. Именно мультиагентные рабочие нагрузки стали главной целевой аудиторией нового чипа.

NVIDIA также анонсировала серверную платформу Groq 3 LPX, объединяющую 128 чипов LPU в одной стойке. В связке с Vera Rubin NVL72 система обеспечивает 35-кратный прирост пропускной способности на мегаватт потребляемой мощности и 10-кратное увеличение потенциальной выручки для операторов дата-центров.

Производство Groq 3 будет осуществляться Samsung по 4-нанометровому техпроцессу. Начало поставок запланировано на третий квартал 2026 года. Чип станет частью платформы Vera Rubin в качестве выделенного сопроцессора для фазы декодирования при инференсе.

Появление LPU как отдельного класса ускорителей знаменует важный сдвиг в индустрии: если раньше один GPU решал все задачи, то теперь обучение и инференс получают специализированное оборудование. Это отражает переход рынка от эры обучения моделей к эре их массового практического применения.

Попробуйте нейросети в MashaGPT

GPT-5, Claude, Gemini, генерация изображений и видео — всё в одном месте

Попробовать бесплатно
Источник:IEEE Spectrum