TLDR マイクロソフトは、要求の厳しいクラウドAIタスクをサポートし、Nvidia、AWS、Googleのチップと競争するために、Maia 200チップを発表しました。Maia 200は30%優れたパフォーマンスを提供しますTLDR マイクロソフトは、要求の厳しいクラウドAIタスクをサポートし、Nvidia、AWS、Googleのチップと競争するために、Maia 200チップを発表しました。Maia 200は30%優れたパフォーマンスを提供します

マイクロソフト、クラウド機能強化に向けて第2世代AIチップを発表

TLDR

  • Microsoftは、要求の厳しいクラウドAIタスクをサポートし、Nvidia、AWS、Googleのチップと競争するために、Maia 200チップを発表しました。
  • Maia 200は、同じコストで30%優れたパフォーマンスを提供し、最適化された電力と速度のために3nmプロセスを使用しています。
  • Microsoftは、まず米国中央部のデータセンターにMaia 200を設置し、その後米国西部3およびその他のグローバル拠点に展開します。
  • オープンソースAIモデルを扱う開発者、研究者、ラボ向けに、プレビュー版のソフトウェア開発キットが利用可能です。
  • Maia 200は、Microsoft 365 Copilot、Microsoft Foundry、およびMustafa Suleymanが率いる社内の超知能チームを支援します。

Microsoftは、クラウドコンピューティングワークロードを対象とした新しい人工知能チップ「Maia 200」を発表しました。このチップは、Microsoftが最初のAIチップ「Maia 100」を発表してから2年後に登場しましたが、Maia 100はクラウドクライアントに広く提供されることはありませんでした。同社は、Maia 200が将来的により多くの顧客に届き、より広範な可用性を提供すると述べています。

Maia 200はクラウドAIプロセッサ市場での競争を目指す

Microsoftは、Maia 200がNvidia、AmazonのTrainium、GoogleのTPUのプロセッサの代替として機能できると発表しました。Microsoftのクラウドおよび AI担当エグゼクティブバイスプレジデントであるScott Guthrieは、Maia 200が「将来的により広範な顧客への提供」をもたらすと述べました。Microsoftは、Maia 200がこれまでに展開された最も効率的な推論システムであると述べています。

開発者、学術関係者、AIラボは、Maia 200ソフトウェア開発キットのプレビューに申し込むことができます。プレビューは、新しいチップ上でAIワークロードを構築および最適化するためのツールへの早期アクセスを提供します。Microsoftは、プレビューがオープンソースAIモデルとエンタープライズユースケース全体での実験を拡大すると述べています。

Microsoftは、Mustafa Suleymanが率いる超知能チームが、社内および顧客ワークロードにMaia 200を使用すると述べました。同社はまた、Microsoft 365 CopilotとMicrosoft FoundryがこのチップYで実行されることを確認しました。これらのサービスには、生産性ソフトウェアのアドオンや大規模なAIモデルの上に構築するためのフレームワークが含まれます。

Microsoftによると、クラウドプロバイダーは、AnthropicやOpenAIなどのAIモデル開発者からの需要の増加に直面しています。データセンター運営者は、エネルギーとコストの制約を管理しながら、より高い計算能力を求めています。この競争環境において、企業は運用コストとエネルギー使用に対するパフォーマンスのバランスを取ることを目指しています。

Maia 200チップの技術詳細と展開計画

Microsoftは、Maia 200チップが台湾セミコンダクター・マニュファクチャリング・カンパニーの3ナノメートルプロセスを使用していると述べました。同社は、各サーバー内に4つのMaia 200チップを配置し、スループットを向上させるために相互接続していると述べました。Microsoftは、この設計がNvidiaのインストールで見られるInfiniBand標準ではなく、イーサネットケーブルを使用していると説明しました。

同社は、Maia 200が代替品と比較して同等の価格帯で30%高いパフォーマンスを提供すると述べました。Microsoftは、各Maia 200には、AWSのTrainiumまたはGoogleの第7世代TPUよりも多くの高帯域幅メモリが含まれていると述べました。このアーキテクチャ設計は、大規模なモデル推論ワークロードをサポートすることを目的としています。

Microsoftはまた、最大6,144個のMaia 200チップをリンクして、パフォーマンスをさらに拡張できると述べました。同社は、このアプローチがエネルギー使用と総所有コストの削減に役立つと主張しました。Microsoftは以前、Maia 100が2023年にGitHub Copilotを実行できることを示しました。

Microsoftは、まず米国中央部のデータセンター地域にMaia 200チップを展開すると述べました。同社は、チップが後に米国西部3地域に到着すると述べました。これらの初期展開に続いて、追加のグローバル展開が行われます。

Microsoft Unveils Second‑Generation AI Chip to Strengthen Cloud Capabilitiesという投稿は、Blockonomiに最初に掲載されました。

免責事項:このサイトに転載されている記事は、公開プラットフォームから引用されており、情報提供のみを目的としています。MEXCの見解を必ずしも反映するものではありません。すべての権利は原著者に帰属します。コンテンツが第三者の権利を侵害していると思われる場合は、削除を依頼するために service@support.mexc.com までご連絡ください。MEXCは、コンテンツの正確性、完全性、適時性について一切保証せず、提供された情報に基づいて行われたいかなる行動についても責任を負いません。本コンテンツは、財務、法律、その他の専門的なアドバイスを構成するものではなく、MEXCによる推奨または支持と見なされるべきではありません。