Dalam upaya mendorong pengembangan teknologi pusat data yang lebih terbuka, efisien, dan bertenaga, NVIDIA mengumumkan kontribusi signifikan melalui desain platform komputasi yang dipercepat bernama Blackwell. Desain ini diserahkan kepada Open Compute Project (OCP), yang menjadi wadah kolaborasi global untuk menciptakan infrastruktur pusat data yang lebih baik. Pengumuman ini dilakukan pada OCP Global Summit yang berlangsung baru-baru ini, di mana NVIDIA berkomitmen untuk berbagi desain penting dari sistem GB200 NVL72.
Sistem GB200 NVL72 dirancang untuk mempercepat kinerja AI. Desain tersebut mencakup berbagai elemen penting, seperti arsitektur rak, mekanik komputasi dan baki sakelar, serta spesifikasi pendingin cair dan lingkungan termal yang diperlukan untuk mendukung kepadatan komputasi tinggi. Dengan memperkenalkan kartrid kabel NVLink volumetrik, sistem ini mampu menyediakan bandwidth jaringan yang lebih besar, sehingga menjadi solusi ideal untuk semakin bertumbuhnya beban kerja berbasis AI.
NVIDIA telah menjadi pemain kunci dalam OCP selama hampir satu dekade, memberikan beberapa kontribusi desain yang krusial dalam perkembangan perangkat keras. Di antaranya adalah spesifikasi desain baseboard HGX H100, yang dirancang untuk memperluas adopsi teknologi AI di seluruh dunia. Dengan upaya ini, NVIDIA berharap untuk menyediakan ekosistem yang lebih kaya bagi para pembuat komputer di seluruh dunia.
Sebagai bagian dari pendekatan ini, NVIDIA juga memperluas dukungan untuk jaringan Ethernet Spectrum-X, yang kini menjangkau spesifikasi tambahan dari Komunitas OCP. Inisiatif ini bertujuan untuk membantu perusahaan dalam membuka potensi kinerja untuk pabrik AI, yang akan menerapkan peralatan yang dikenali oleh OCP. Dengan demikian, organisasi-organisasi dapat mempertahankan investasi yang telah dilakukan dan menjaga kompatibilitas perangkat lunak di seluruh sistem mereka.
Jensen Huang, CEO dan pendiri NVIDIA, menyatakan, “Membangun kolaborasi selama satu dekade dengan OCP, NVIDIA bekerja sama dengan para pemimpin industri untuk membentuk spesifikasi dan desain yang dapat diadopsi secara luas di seluruh pusat data." Pernyataan ini mencerminkan tekad NVIDIA untuk mempercepat implementasi teknologi AI dengan standar terbuka, membantu organisasi di seluruh dunia memanfaatkan kekuatan penuh dari komputasi yang dipercepat.
Dalam konteks ini, spesifikasi dari platform GB200 NVL72 menggunakan arsitektur modular MGX. Desain ini tidak hanya mendukung efisiensi biaya, tetapi juga memberikan pembuat komputer fleksibilitas dalam menciptakan berbagai desain infrastruktur pusat data. Sistem pendinginan yang inovatif terintegrasi dengan 36 CPU Grace dan 72 GPU Blackwell, memungkinkan desain ini berfungsi layaknya GPU tunggal yang sangat kuat. Dengan teknologi ini, inferensi dari model bahasa besar dapat dilakukan dengan kecepatan 30 kali lipat dibandingkan dengan GPU H100 Tensor Core.
Platform jaringan Ethernet Spectrum-X yang baru juga memiliki keunggulan. Menggunakan ConnectX-8 SuperNIC generasi berikutnya, sistem ini mampu mendukung kecepatan hingga 800Gb/s. Fitur unggulan ini memungkinkan pelanggan untuk memanfaatkan perutean adaptif yang canggih dan kontrol kemacetan yang berbasiskan telemetri, untuk memaksimalkan performa Ethernet dalam infrastruktur AI yang berkembang pesat. Ketersediaan ConnectX-8 untuk OCP 3.0 pada tahun depan akan memberikan kesempatan lebih luas bagi organisasi untuk membangun jaringan yang lebih fleksibel dan efisien.
Keberadaan solusi ini sangat penting, mengingat dunia saat ini bergerak dari komputasi umum ke arah infrastruktur yang lebih mengandalkan AI dan akselerasi komputasi. Dengan menghadapi kompleksitas yang meningkat dari pusat data modern, NVIDIA bekerja sama dengan lebih dari 40 pembuat elektronik global. Mereka menyediakan komponen yang diperlukan untuk membangun aplikasi pabrik AI yang mampu memenuhi permintaan pasar yang terus meningkat.
Lebih jauh lagi, kolaborasi yang erat dengan para mitra industri memberi dampak positif. Misalnya, Meta, sebagai salah satu mitra strategis NVIDIA, akan menyumbangkan arsitektur rak AI Catalina yang berbasis pada GB200 NVL72 ke OCP. Proyek ini memberikan opsi yang beragam dan fleksibel bagi pembuat komputer untuk mempercepat pengembangan sistem dengan kepadatan komputasi tinggi. Ini merupakan langkah besar dalam memenuhi permintaan efisiensi kinerja dan energi di pusat data.
Yee Jiun Song, Wakil Presiden Teknik di Meta, menegaskan pentingnya kontribusi NVIDIA, “NVIDIA telah menjadi kontributor signifikan untuk standar komputasi terbuka selama bertahun-tahun, termasuk platform komputasi berkinerja tinggi yang telah menjadi fondasi server Grand Teton kami selama dua tahun terakhir." Dengan mengadopsi desain rak dan arsitektur modular terbaru dari NVIDIA, Meta juga berharap dapat memenuhi tuntutan komputasi yang semakin meningkat dalam skala besar.
Inisiatif NVIDIA dalam menciptakan desain Blackwell dan dukungan terhadap OCP menunjukkan komitmennya untuk berkontribusi pada pengembangan infrastruktur AI yang berkelanjutan. Melalui kolaborasi ini, dapat dipastikan bahwa standar terbuka yang diusung akan mempercepat inovasi di seluruh industri, dan pada akhirnya memberikan manfaat bagi banyak organisasi yang bergantung pada kecerdasan buatan untuk melayani kebutuhan bisnis mereka.
Dengan peluncuran berbagai teknologi baru ini, saatnya bagi komunitas industri untuk memanfaatkan peluang ini dan bersiap menghadapi era baru dalam teknologi pusat data yang semakin terintegrasi dengan AI.