غول تراشه NVIDIA در حال آمادهسازی برای رونمایی از یک پردازنده جدید و قدرتمند هوش مصنوعی است که برای تسریع نحوه تولید پاسخها توسط چتباتها و سایر ابزارهای هوش مصنوعی طراحی شده و به طور بالقوه میتواند سیستمهای امروزی مانند ChatGPT را در مقایسه کند به نظر برسد.
این پلتفرم جدید که انتظار میرود در کنفرانس سالانه توسعهدهندگان GTC شرکت NVIDIA راهاندازی شود، برای استنتاج هوش مصنوعی بهینهسازی شده است، یعنی مرحلهای که مدلهای آموزشدیده پاسخها را به درخواستهای کاربر تولید میکنند. برخلاف GPUهای سنتی که برای مدیریت هم آموزش و هم استنتاج ساخته شدهاند، پردازنده آینده به طور خاص بر ارائه پاسخها سریعتر و کارآمدتر تمرکز دارد.
این محصول، در صورت راهاندازی، اولین نتیجه ملموس از معامله ماه دسامبر خواهد بود که بنیانگذاران Groq را به گروه آورد، شرکتی که در سختافزار پردازش هوش مصنوعی با سرعت بالا تخصص دارد.
اواخر سال گذشته، NVIDIA گزارش شده است که حدود 20 میلیارد دلار برای دریافت مجوز فناوری از استارتآپ تراشه Groq و استخدام پرسنل کلیدی، از جمله مدیرعامل آن، هزینه کرده است. تقریباً در همان زمان، جنسن هوانگ، مدیرعامل NVIDIA، به کارمندان گفت: "ما قصد داریم پردازندههای کم تاخیر Groq را در معماری کارخانه هوش مصنوعی NVIDIA ادغام کنیم و پلتفرم را گسترش دهیم تا طیف گستردهتری از استنتاج هوش مصنوعی و بارهای کاری بلادرنگ را ارائه دهد."
اکنون، انتظار میرود که تراشه استنتاج جدید بتواند پرسشهای پیچیده هوش مصنوعی را با سرعت بالا مدیریت کند، و به گفته وال استریت ژورنال، احتمالاً OpenAI و سایر مشتریان پیشرو آن را اتخاذ کنند. گزارش آن همچنین نشان داد که تراشه جدید ممکن است نزدیک به 10 درصد از بار کاری استنتاج OpenAI را مدیریت کند.
منابع میگویند تراشه سبک Groq از SRAM استفاده خواهد کرد
در طول یک تماس اخیر درآمد، مدیرعامل NVIDIA اشاره کرد که چندین محصول جدید در رویداد آینده GTC، که اغلب به عنوان "سوپر بول هوش مصنوعی" توصیف میشود، رونمایی خواهد شد. او اظهار داشت: "من ایدههای عالی دارم که میخواهم در GTC با شما به اشتراک بگذارم."
اکثر تحلیلگران موافق هستند که تراشه سبک Groq میتواند بخشی از این مجموعه باشد. آنها همچنین اظهار داشتند که طراحی آن میتواند روشن کند که چگونه NVIDIA قصد دارد محدودیتهای حافظه در محاسبات استنتاج را برطرف کند. چنین پلتفرمهایی معمولاً بر روی حافظه پهنای باند بالا (HBM) اجرا میشوند. با این حال، اخیراً تامین HBM دشوار بوده است.
افراد آگاه ادعا کردهاند که شرکت قصد دارد از SRAM در تراشه به جای RAM پویا مرتبط با HBM استفاده کند. در حالت ایدهآل، SRAM قابل دسترستر است و میتواند عملکرد بارهای کاری استدلال هوش مصنوعی را بهبود بخشد.
اگر تراشه رونمایی شود، میتواند یک گام بزرگ به جلو برای شرکت تراشه و مدلهای آموزشدیده هوش مصنوعی باشد. با این حال، سید شث، بنیانگذار و مدیرعامل d-Matrix، در مورد راهاندازی احتمالی آن، سایهای بر توسعه آن انداخت. او خاطرنشان کرد که در حالی که NVIDIA همچنان رهبر واضح در آموزش هوش مصنوعی است، استنتاج چشمانداز بسیار متفاوتی را نشان میدهد. او گفت: "توسعه دهنده های ویدئویی میتوانند به رقبای دیگری غیر از NVIDIA روی بیاورند زیرا اجرای مدلهای نهایی هوش مصنوعی به همان نوع برنامهنویسی آموزش آنها نیاز ندارد."
با این وجود، سایر غولهای فناوری نیز در حال پیشبرد محاسبات استنتاج هستند. Meta این هفته چهار پردازنده متناسب با استنتاج را رونمایی کرد که باعث شد یک سرمایهگذار سیلیکون ولی بگوید صنعت ممکن است وارد مرحله غیر "تسلط NVIDIA" شود.
با این حال، اخیراً، جون پایک، مدیر اجرایی FuriosaAI، رقیب NVIDIA، در اظهار نظر درباره مزیت محاسبات استنتاج قابل استقرار آسان، هشدار داد که اکثر مراکز داده نمیتوانند جدیدترین GPUهای سرد شده با مایع را در خود جای دهند.
با این وجود، علیرغم نگرانیهای او، تحلیلگران بانک آمریکا انتظار دارند که بارهای کاری استنتاج تا سال 2030، زمانی که بازار به حدود 1.2 تریلیون دلار میرسد، 75 درصد از هزینههای مرکز داده هوش مصنوعی را نشان دهد، که از حدود 50 درصد سال گذشته افزایش یافته است. بن باجارین، تحلیلگر فناوری در Creative Strategies، همچنین اظهار داشت که مراکز داده آینده با یک مدل یکسان برای همه مطابقت نخواهند داشت و پیشبینی میکند که شرکتها رویکردهای متفاوتی برای توسعه تراشه و تسهیلات اتخاذ خواهند کرد.
انتظار میرود NVIDIA تراشههای Vera Rubin را در اواخر سال 2026 منتشر کند
NVIDIA اخیراً تراشههای هوش مصنوعی نسل بعدی خود، تراشههای هوش مصنوعی Vera Rubin را نیز عرضه کرده است و پیشبینی میکند که ظهور پلتفرمهای هوش مصنوعی استدلالی مانند DeepSeek، تقاضای محاسباتی حتی بیشتری را به وجود خواهد آورد. این شرکت ادعا کرد که تراشهها به آموزش مدلهای بزرگتر هوش مصنوعی کمک میکنند و خروجیهای پیچیدهتری را برای پایگاه کاربری گستردهتر ارائه میدهند.
به گفته هوانگ، Rubin همچنین در نیمه دوم سال 2026 وارد بازار خواهد شد و نسخه "اولترا" پیشرفته آن در سال 2027 عرضه خواهد شد.
او همچنین توضیح داد که یک سیستم Rubin منفرد 576 GPU جداگانه را در یک تراشه واحد ترکیب میکند. در حال حاضر، تراشه Blackwell شرکت NVIDIA، 72 GPU را در سیستم NVL72 خود خوشهبندی میکند، به این معنی که Rubin دارای حافظه پیشرفتهتری خواهد بود.
منبع: https://www.cryptopolitan.com/nvidias-chip-could-make-chatgpt-look-slow/


