Технологии

Собственный «супер-AI-чип» готов — но Microsoft всё равно не слезает с Nvidia и AMD

Generated by DALL·E

Microsoft начала разворачивать в дата-центрах первые партии собственного ускорителя Maia 200 и параллельно дала понять рынку: появление своего железа не означает разрыва с внешними поставщиками. На фоне дефицита мощных GPU и гонки за вычислительными ресурсами компания делает ставку на «микс» — где рядом будут работать и собственные чипы, и решения Nvidia/AMD.

Свой чип — не «вместо», а «вместе»

Гендиректор Microsoft Сатья Наделла объяснил, что партнёрства с Nvidia и AMD остаются важными: обе компании продолжают активно развивать продукты, и Microsoft не собирается замыкаться только на вертикальной интеграции. Иными словами, даже если компания может строить инфраструктуру «от и до», это не значит, что она будет делать только так.

Maia 200: ставка на инференс и экономику «токенов»

Maia 200 Microsoft позиционирует как ускоритель, заточенный под инференс — «боевую» работу моделей в продакшене. В официальном описании компания подчёркивает, что чип создан для улучшения экономики генерации токенов и использует техпроцесс TSMC 3 нм, а также FP8/FP4-вычисления и крупный объём памяти HBM3e (216 ГБ) с высокой пропускной способностью.

Также Microsoft сравнивает Maia 200 с чипами конкурентов: заявляется преимущество по FP4 относительно Amazon Trainium (3-го поколения) и более высокая FP8-производительность по сравнению с TPU (7-го поколения) у Google.

Где Maia 200 появится в инфраструктуре Microsoft

По данным Microsoft, Maia 200 уже развёрнут в регионе Azure US Central (рядом с Де-Мойном, Айова), а следующим должен стать US West 3 (район Финикса, Аризона), после чего география расширится.

Компания также указывает, что Maia 200 будет поддерживать модели OpenAI в Azure и использоваться в продуктах/платформах вроде Microsoft Foundry и Microsoft 365 Copilot.

«Суперинтеллект» получает приоритет

TechCrunch пишет, что первыми Maia 200 получат специалисты внутренней команды Microsoft, которую компания называет Superintelligence: она занимается разработкой «фронтирных» моделей. Руководитель направления Мустафа Сулейман дал понять в соцсетях, что его команда будет первой, кто начнёт работу на Maia 200 при создании собственных моделей.

В официальном блоге Microsoft дополнительно уточняет, что команда Superintelligence планирует применять Maia 200, в том числе для генерации синтетических данных и reinforcement learning, чтобы улучшать следующие поколения собственных моделей.

Почему без Nvidia всё равно никак — и дело не только в привычке

Одна из причин — продолжающийся дефицит передового AI-железа: крупные игроки рынка прямо говорят о том, что спрос на вычисления заметно опережает предложение. TechCrunch ссылается на то, что «сжатие» поставок у Nvidia не выглядит проблемой, которая быстро исчезнет.

На этом фоне у Microsoft растут капитальные расходы: СМИ, освещающие отчётность компании, отмечают масштабные вложения в инфраструктуру ИИ и то, что существенная доля этих расходов связана именно с чипами и вычислительными ресурсами.

Параллельно — ставка на инструменты и разработчиков

Microsoft сообщает, что запускает превью Maia SDK: в наборе заявлены интеграция с PyTorch, компилятор Triton, оптимизированные библиотеки и доступ к низкоуровневому языку программирования для Maia. Идея понятна: «железо» должно идти вместе с удобным стеком разработки — иначе выигрыша от собственного чипа будет меньше.