Η NVIDIA Αποκαλύπτει τον Υπερυπολογιστή AI Vera Rubin POD 40 Racks για Agentic Φόρτους Εργασίας
Iris Coleman 16 Μαρ 2026 19:48
Η NVIDIA ανακοινώνει το Vera Rubin POD με 1.152 GPUs σε 40 racks, παρέχοντας 60 exaflops και 10x καλύτερη απόδοση συμπερασμάτων ανά watt από το Blackwell.
Η NVIDIA μόλις ανακοίνωσε τις προδιαγραφές της πιο φιλόδοξης υποδομής AI μέχρι στιγμής. Το Vera Rubin POD περιλαμβάνει 1.152 Rubin GPUs σε 40 racks, παρέχοντας 60 exaflops υπολογιστικής ισχύος και 10 petabytes ανά δευτερόλεπτο συνολικού εύρους ζώνης επεκτασιμότητας. Οι μονάδες παραγωγής θα αποσταλούν στο δεύτερο εξάμηνο του 2026.
Οι αριθμοί είναι εντυπωσιακοί: 1,2 τετράκις εκατομμύρια τρανζίστορ, σχεδόν 20.000 NVIDIA dies, όλα σχεδιασμένα να λειτουργούν ως ένας ενιαίος συνεκτικός υπερυπολογιστής. Η NVIDIA ισχυρίζεται 4x καλύτερη απόδοση εκπαίδευσης και 10x καλύτερη απόδοση συμπερασμάτων ανά watt σε σύγκριση με την τρέχουσα αρχιτεκτονική Blackwell—με το κόστος των tokens να μειώνεται στο ένα δέκατο των τρεχόντων επιπέδων.
Πέντε Συστήματα Rack Ειδικού Σκοπού
Το POD συνδυάζει πέντε διακριτά συστήματα κλίμακας rack, καθένα στοχεύοντας συγκεκριμένα σημεία συμφόρησης σε σύγχρονους φόρτους εργασίας AI:
Vera Rubin NVL72 λειτουργεί ως η κύρια υπολογιστική μηχανή. Κάθε rack ενσωματώνει 72 Rubin GPUs και 36 Vera CPUs συνδεδεμένα μέσω NVLink 6, που προωθεί 3,6 TB/s εύρος ζώνης ανά GPU—περισσότερο συνολικό εύρος ζώνης από ολόκληρο το παγκόσμιο διαδίκτυο, σύμφωνα με την NVIDIA. Το σύστημα στοχεύει και τους τέσσερις νόμους κλιμάκωσης AI: προεκπαίδευση, μετεκπαίδευση, κλιμάκωση χρόνου δοκιμής και agentic κλιμάκωση.
Groq 3 LPX racks αντιμετωπίζουν το πρόβλημα λανθάνοντος χρόνου. Με 256 μονάδες επεξεργασίας γλώσσας ανά rack χρησιμοποιώντας αρχιτεκτονική μόνο SRAM, αυτά συνδυάζονται με το NVL72 για να παρέχουν αυτό που η NVIDIA ισχυρίζεται ότι είναι 35x περισσότερα tokens και 10x περισσότερες ευκαιρίες εσόδων για μοντέλα τρισεκατομμυρίων παραμέτρων σε σύγκριση με το Blackwell.
Vera CPU racks παρέχουν περιβάλλοντα sandbox για δοκιμή πρακτόρων. Ένα μόνο rack υποστηρίζει πάνω από 22.500 ταυτόχρονα περιβάλλοντα ενισχυτικής μάθησης—κρίσιμο για την επικύρωση των αποτελεσμάτων agentic AI πριν από την ανάπτυξη.
BlueField-4 STX racks εισάγουν αυτό που η NVIDIA ονομάζει "AI-native αποθήκευση" μέσω της πλατφόρμας μνήμης πλαισίου CMX. Μεταφέροντας το KV cache σε αποκλειστική αποθήκευση υψηλού εύρους ζώνης, το σύστημα ισχυρίζεται 5x υψηλότερα tokens ανά δευτερόλεπτο και 5x καλύτερη ενεργειακή απόδοση από τις παραδοσιακές προσεγγίσεις.
Spectrum-6 SPX networking racks συνδέουν τα πάντα μαζί με διακόπτες 102,4 Tb/s που διαθέτουν συμπεριλαμβανόμενη οπτική.
Το Επιχείρημα των Οικονομικών των Tokens
Η NVIDIA πλαισιώνει αυτό γύρω από μια συγκεκριμένη πραγματικότητα της αγοράς: η κατανάλωση tokens υπερβαίνει τώρα τα 10 τετράκις εκατομμύρια ετησίως, και η μετάβαση από αλληλεπιδράσεις ανθρώπου-AI σε AI-AI θα επιταχύνει αυτή την ανάπτυξη δραματικά. Τα σύγχρονα agentic συστήματα δημιουργούν τεράστιους όγκους tokens λογικής ενώ επεκτείνουν τις απαιτήσεις KV cache—ακριβώς το σημείο συμφόρησης που στοχεύει αυτή η αρχιτεκτονική.
Τα benchmarks SemiAnalysis InferenceMax τρίτων που αναφέρονται από την NVIDIA δείχνουν ότι τα τρέχοντα συστήματα Blackwell παρέχουν ήδη 50x καλύτερη απόδοση ανά watt και 35x χαμηλότερο κόστος ανά token σε σύγκριση με το H200. Το Vera Rubin στοχεύει να επεκτείνει αυτό το προβάδισμα.
Θερμική και Ενεργειακή Μηχανική
Η αρχιτεκτονική rack τρίτης γενιάς MGX εισάγει Intelligent Power Smoothing με 6x περισσότερη αποθήκευση ενέργειας σε επίπεδο rack (400 joules ανά GPU) από τις προηγούμενες γενιές. Αυτό μειώνει τις ανάγκες μέγιστου ρεύματος έως και 25% και εξαλείφει την ανάγκη για τεράστια πακέτα μπαταριών.
Όλα τα racks λειτουργούν σε θερμοκρασίες εισόδου ζεστού νερού 45°C, επιτρέποντας στα κέντρα δεδομένων σε πολλά κλίματα να χρησιμοποιούν ψύξη περιβάλλοντος αέρα. Η NVIDIA ισχυρίζεται ότι αυτό απελευθερώνει αρκετή ισχύ για να προστεθούν 10% περισσότερα racks στον ίδιο προϋπολογισμό ισχύος εγκατάστασης.
Κοιτάζοντας Μπροστά
Πέρα από την αρχική διαμόρφωση POD, η NVIDIA προεπισκόπησε το Vera Rubin Ultra NVL576 με κλιμάκωση σε 576 GPUs σε οκτώ racks, και την αρχιτεκτονική επόμενης γενιάς Kyber που στοχεύει το NVL1152 με 144 GPUs ανά rack. Ο χάρτης πορείας υποδηλώνει ότι η NVIDIA βλέπει τα multi-rack NVLink domains ως το μέλλον της υποδομής AI—όχι απλώς μεγαλύτερα GPUs, αλλά θεμελιωδώς διαφορετικές αρχιτεκτονικές συστημάτων.
Για τις επιχειρήσεις που σχεδιάζουν επενδύσεις υποδομής AI, το μήνυμα είναι σαφές: τα οικονομικά του υπολογισμού AI μετατοπίζονται από βελτιστοποίηση σε επίπεδο chip σε βελτιστοποίηση σε επίπεδο εγκατάστασης. Όσοι κατασκευάζουν κέντρα δεδομένων τώρα αντιμετωπίζουν μια επιλογή μεταξύ συστημάτων τρέχουσας γενιάς και αναμονής για διαθεσιμότητα Vera Rubin στα τέλη του 2026.
Πηγή εικόνας: Shutterstock- nvidia
- υποδομή ai
- vera rubin
- κέντρα δεδομένων
- επιχειρηματικό ai




