Microsoftは、クラウドコンピューティングワークロードを対象とした新しい人工知能チップ「Maia 200」を発表しました。このチップは、Microsoftが最初のAIチップ「Maia 100」を発表してから2年後に登場しましたが、Maia 100はクラウドクライアントに広く提供されることはありませんでした。同社は、Maia 200が将来的により多くの顧客に届き、より広範な可用性を提供すると述べています。
Microsoftは、Maia 200がNvidia、AmazonのTrainium、GoogleのTPUのプロセッサの代替として機能できると発表しました。Microsoftのクラウドおよび AI担当エグゼクティブバイスプレジデントであるScott Guthrieは、Maia 200が「将来的により広範な顧客への提供」をもたらすと述べました。Microsoftは、Maia 200がこれまでに展開された最も効率的な推論システムであると述べています。
開発者、学術関係者、AIラボは、Maia 200ソフトウェア開発キットのプレビューに申し込むことができます。プレビューは、新しいチップ上でAIワークロードを構築および最適化するためのツールへの早期アクセスを提供します。Microsoftは、プレビューがオープンソースAIモデルとエンタープライズユースケース全体での実験を拡大すると述べています。
Microsoftは、Mustafa Suleymanが率いる超知能チームが、社内および顧客ワークロードにMaia 200を使用すると述べました。同社はまた、Microsoft 365 CopilotとMicrosoft FoundryがこのチップYで実行されることを確認しました。これらのサービスには、生産性ソフトウェアのアドオンや大規模なAIモデルの上に構築するためのフレームワークが含まれます。
Microsoftによると、クラウドプロバイダーは、AnthropicやOpenAIなどのAIモデル開発者からの需要の増加に直面しています。データセンター運営者は、エネルギーとコストの制約を管理しながら、より高い計算能力を求めています。この競争環境において、企業は運用コストとエネルギー使用に対するパフォーマンスのバランスを取ることを目指しています。
Microsoftは、Maia 200チップが台湾セミコンダクター・マニュファクチャリング・カンパニーの3ナノメートルプロセスを使用していると述べました。同社は、各サーバー内に4つのMaia 200チップを配置し、スループットを向上させるために相互接続していると述べました。Microsoftは、この設計がNvidiaのインストールで見られるInfiniBand標準ではなく、イーサネットケーブルを使用していると説明しました。
同社は、Maia 200が代替品と比較して同等の価格帯で30%高いパフォーマンスを提供すると述べました。Microsoftは、各Maia 200には、AWSのTrainiumまたはGoogleの第7世代TPUよりも多くの高帯域幅メモリが含まれていると述べました。このアーキテクチャ設計は、大規模なモデル推論ワークロードをサポートすることを目的としています。
Microsoftはまた、最大6,144個のMaia 200チップをリンクして、パフォーマンスをさらに拡張できると述べました。同社は、このアプローチがエネルギー使用と総所有コストの削減に役立つと主張しました。Microsoftは以前、Maia 100が2023年にGitHub Copilotを実行できることを示しました。
Microsoftは、まず米国中央部のデータセンター地域にMaia 200チップを展開すると述べました。同社は、チップが後に米国西部3地域に到着すると述べました。これらの初期展開に続いて、追加のグローバル展開が行われます。
Microsoft Unveils Second‑Generation AI Chip to Strengthen Cloud Capabilitiesという投稿は、Blockonomiに最初に掲載されました。


