BitcoinWorld
چیپهای هوش مصنوعی گوگل رونمایی شدند: عرضه TPU 8t و 8i برای به چالش کشیدن سلطه Nvidia
در یک اقدام راهبردی برای تصاحب سهم بیشتری از بازار پرشتاب هوش مصنوعی، Google Cloud در روز چهارشنبه، ۱۴۰۴/۰۲/۱۰، در سانفرانسیسکو، کالیفرنیا، از عرضه نسل هشتم چیپهای سفارشی مبتنی بر هوش مصنوعی خود خبر داد. این شرکت رویکردی دوگانه را معرفی کرد و دو چیپ تخصصی را رونمایی نمود: TPU 8t برای آموزش مدلهای هوش مصنوعی و TPU 8i برای بارهای کاری استنتاج. این پیشرفت نشاندهنده جدیترین تلاش گوگل تاکنون برای ارائه یک جایگزین قدرتمند و مقرونبهصرفه در برابر GPUهای استاندارد صنعت Nvidia به سازمانهاست، هرچند این غول جستجو تأکید میکند که مشارکتش با رهبر بازار چیپ قویتر از همیشه است.
تصمیم گوگل برای تقسیم نسل هشتم واحد پردازش تنسور (TPU) به دو مدل مجزا، نمایانگر یک تحول بزرگ در استراتژی سختافزاری آن است. از نظر تاریخی، TPUها هم آموزش و هم استنتاج را مدیریت میکردند، اما تقاضای انفجاری برای محاسبات تخصصی هوش مصنوعی این تغییر معماری را به وجود آورده است. TPU 8t بهطور خاص برای فرآیند محاسباتی فشرده آموزش مدلهای زبانی بزرگ و سایر سیستمهای هوش مصنوعی طراحی شده است. در مقابل، TPU 8i برای استنتاج بهینهسازی شده که فرآیند جاری اجرای مدلهای آموزشدیده برای تولید پاسخ به درخواستهای کاربران است.
بر اساس معیارهای عملکردی گوگل، چیپهای جدید بهبودهای قابلتوجهی نسبت به نسلهای قبلی ارائه میدهند. این شرکت ادعا میکند TPU 8t تا ۳ برابر سرعت بیشتر در آموزش مدلهای هوش مصنوعی و ۸۰ درصد بهبود عملکرد به ازای هر دلار ارائه میدهد. علاوه بر این، مهندسی گوگل اکنون امکان همکاری بیش از یک میلیون TPU در یک کلاستر واحد و گسترده را فراهم میکند. این مقیاس، آموزش مدلهای مرزی نسل بعدی را که پیشتر غیرممکن بود، میسر میسازد. نتیجه عملی برای مشتریان ابری، توان محاسباتی بهمراتب بیشتر با مصرف انرژی و هزینه کمتر است.
اعلام گوگل، آن را بهطور قطعی در روند گستردهتر توسعه سیلیکون سفارشی توسط ارائهدهندگان ابری بزرگ قرار میدهد. Amazon Web Services (AWS) چیپهای Graviton و Trainium خود را دارد، در حالی که Microsoft Azure در حال توسعه شتابدهندههای Maia است. این جنبش که اغلب "مسابقه چیپهای ابرمقیاس" نامیده میشود، با هدف کنترل بیشتر بر زنجیره تأمین، بهینهسازی عملکرد برای پشتههای نرمافزاری خاص و بهبود حاشیه سود هدایت میشود. با این حال، تحلیلگران هشدار میدهند که این یک بازی با جمع صفر در برابر Nvidia نیست.
«روایت 'ابرمقیاسها در برابر Nvidia' اغلب اغراقآمیز است،» پاتریک مور، تحلیلگر برجسته بازار چیپ، توضیح میدهد. «این شرکتها در حال ایجاد ظرفیت تکمیلی و بهینهسازی برای اکوسیستمهای خود هستند. آنها هدف ندارند Nvidia را بهطور کامل جابجا کنند، بهویژه در کوتاهمدت.» مور در سال ۱۳۹۵ بهطور مشهور پیشبینی کرد که اولین TPU گوگل میتواند Nvidia و Intel را تهدید کند، پیشبینیای که نابهنگام بود زیرا ارزش بازار Nvidia از آن زمان به نزدیک ۵ تریلیون دلار رسیده است. واقعیت کنونی بیشتر همزیستانه است. گوگل، برای مثال، تأیید کرده است که چیپ Vera Rubin آینده Nvidia را در سرویس ابری خود در اواخر امسال ارائه خواهد داد.
در واقع، گوگل بر همکاری مستمر خود با Nvidia تأکید دارد. این دو غول فناوری بهصورت مشترک راهحلهای شبکهبندی رایانهای را مهندسی میکنند تا سیستمهای مبتنی بر Nvidia را در زیرساخت Google Cloud کارآمدتر کنند. یک پروژه کلیدی شامل ارتقای Falcon، فناوری شبکهبندی نرمافزاری است که گوگل در سال ۱۴۰۲ ایجاد کرده و بهصورت متنباز منتشر کرده است. این همکاری یک بینش حیاتی صنعتی را برجسته میکند: رشد خدمات ابری هوش مصنوعی، کل بازار قابل دسترس برای تمام سیلیکونهای پرکارایی را گسترش میدهد، چه نام Nvidia را داشته باشد چه نام یک ارائهدهنده ابری.
منطق مالی روشن است. همانطور که سازمانها بهطور فزایندهای بارهای کاری هوش مصنوعی خود را به ابر منتقل میکنند، تقاضا برای محاسبات بهشدت افزایش مییابد. ارائهدهندگان ابری میتوانند بارهای کاری بهینهشده معینی را به چیپهای سفارشی خود هدایت کنند در حالی که سازگاری گسترده GPUهای Nvidia را برای سایرین ارائه میدهند. این مدل ترکیبی به آنها اجازه میدهد سودآوری برخی بارهای کاری را بهبود بخشند و در عین حال انتخاب کامل مشتری را حفظ کنند. برای Nvidia، هر اپلیکیشن جدید هوش مصنوعی میزبانیشده در Google Cloud نماینده یک مشتری بالقوه برای تجهیزات شبکه، مجوزهای نرمافزاری و در بسیاری موارد GPUهای آن است.
مشخصات فنی TPUهای جدید گوگل نشاندهنده کاهش شکاف عملکردی با بهترین GPUهای موجود است. تمرکز بر عملکرد به ازای هر دلار و بهرهوری انرژی به دو نقطه درد اصلی سازمانهایی که هوش مصنوعی را مقیاس میدهند پاسخ میدهد: هزینههای سرسامآور و تأثیر زیستمحیطی. توانایی گوگل برای اتصال بیش از یک میلیون TPU نیز مستقیماً یکی از مزایای کلیدی Nvidia را به چالش میکشد—فناوری پیشرو NVLink برای اتصال تعداد زیادی GPU.
مزایای کلیدی TPUهای جدید گوگل:
با این حال، اکوسیستم Nvidia، بهویژه پلتفرم نرمافزاری CUDA آن، همچنان یک خندق دفاعی محکم است. میلیونها توسعهدهنده هوش مصنوعی روی CUDA آموزش دیدهاند و اپلیکیشنهای بیشماری برای آن ساخته شدهاند. در حالی که چیپهای گوگل فریمورکهای محبوب را اجرا میکنند، نیاز به انتقال احتمالی اپلیکیشنها اصطکاک ایجاد میکند. نبرد بلندمدت ممکن است کمتر در مورد سرعت خام ترانزیستور و بیشتر در مورد این باشد که کدام پلتفرم جذابترین راهحل کلی را برای توسعهدهندگان و سازمانها ارائه میدهد.
عرضه TPU 8t و TPU 8i توسط گوگل، لحظهای محوری در تکامل زیرساخت هوش مصنوعی است. این موضوع تعهد جدی شرکت به رقابت در عرصه سختافزار هوش مصنوعی پرمخاطره را نشان میدهد و چیپهای هوش مصنوعی گوگل قدرتمند جدیدی برای وظایف تخصصی به سازمانها ارائه میدهد. با این حال، این اعلام همچنین ماهیت پیچیده و مشارکتی صنعت نیمهرسانای مدرن را تقویت میکند. بهجای یک حمله تمامعیار، گوگل یک استراتژی پیچیده دو مسیره را اجرا میکند: پیشبرد سیلیکون اختصاصی خود در حالی که مشارکتش با Nvidia را عمیقتر میکند. این رویکرد تضمین میکند که Google Cloud میتواند به گستردهترین طیف ممکن از بارهای کاری هوش مصنوعی پاسخ دهد، از آنهایی که برای TPUهای سفارشی آن بهینه شدهاند تا آنهایی که به استاندارد جهانی GPUهای Nvidia نیاز دارند. برندگان نهایی احتمالاً سازمانها خواهند بود که از رقابت فزاینده، انتخابهای بیشتر و نوآوری مستمر در عملکرد و هزینه بهرهمند خواهند شد.
Q1: تفاوت بین چیپهای TPU 8t و TPU 8i گوگل چیست؟
TPU 8t بهطور خاص برای آموزش مدل هوش مصنوعی—فرآیند آموزش یک مدل با استفاده از مجموعه دادههای بسیار بزرگ—طراحی شده است. TPU 8i برای استنتاج بهینهسازی شده که فرآیند استفاده از یک مدل آموزشدیده برای پیشبینی یا تولید پاسخ در زمان واقعی است.
Q2: آیا Google Cloud ارائه GPUهای Nvidia را متوقف خواهد کرد؟
خیر. گوگل بهصراحت اعلام کرده است که Nvidia را جایگزین نمیکند. این شرکت تأیید کرد که GPUهای نسل بعدی Vera Rubin را در سرویس ابری خود در اواخر امسال ارائه خواهد داد و بهطور فعال در فناوری شبکهبندی با Nvidia همکاری میکند.
Q3: چیپهای جدید هوش مصنوعی گوگل در مقایسه با نسخههای قبلی TPU چگونه هستند؟
گوگل ادعا میکند TPUهای نسل هشتم جدید تا ۳ برابر سرعت آموزش بیشتر و ۸۰ درصد بهبود عملکرد به ازای هر دلار نسبت به نسلهای قبلی ارائه میدهند. آنها همچنین از کلاسترهای بیش از یک میلیون چیپ پشتیبانی میکنند و آموزش مدل در مقیاس بزرگتر را ممکن میسازند.
Q4: چرا ارائهدهندگان ابری مانند گوگل چیپهای هوش مصنوعی خود را میسازند؟
ارائهدهندگان ابری سیلیکون سفارشی را برای بهینهسازی عملکرد برای نرمافزار و خدمات خاص خود، کسب کنترل بیشتر بر زنجیره تأمین، بهبود کارایی هزینه و تمایز پیشنهادات خود در یک بازار رقابتی توسعه میدهند.
Q5: این موضوع برای آینده Nvidia چه معنایی دارد؟
در حالی که چیپهای سفارشی از ابرمقیاسها نشاندهنده رقابت است، رشد کلی بازار هوش مصنوعی تقاضا برای تمام محاسبات پرکارایی را گسترش میدهد. اکوسیستم نرمافزاری قوی Nvidia (CUDA) و نوآوری مستمر آن به این معناست که احتمالاً به یک نیروی غالب باقی خواهد ماند، حتی زمانی که با شرکتهایی که سیلیکون جایگزین میسازند همکاری میکند.
این مطلب Google AI Chips Unleashed: TPU 8t and 8i Launch to Challenge Nvidia's Dominance اولین بار در BitcoinWorld منتشر شد.


