GPU Ampere pertama Nvidia dirancang untuk pusat data

Nvidia GPU Ampere

Nvidia hari ini meluncurkan arsitektur Ampere GPU generasi baru. GPU pertama yang menggunakan Ampere akan menjadi Avid baru Nvidia, dibangun untuk komputasi ilmiah, grafik cloud, dan analisis data. Sementara ada banyak rumor tentang rencana Ampere Nvidia untuk kartu GeForce “RTX 3080”, A100 terutama akan digunakan di pusat data.

Dorongan pusat data terbaru Nvidia datang di tengah pandemi dan peningkatan besar dalam permintaan untuk komputasi awan. Menggambarkan situasi virus korona sebagai “sangat tragis,” CEO Nvidia Jensen Huang mencatat bahwa “penggunaan layanan cloud akan melihat lonjakan,” dalam sebuah konferensi pers.

“Dinamika itu sangat bagus untuk bisnis pusat data kami … Harapannya adalah bahwa Ampere akan bekerja dengan sangat baik. Ini adalah pusat data terbaik kami yang pernah dibuat GPU dan memanfaatkan hampir satu dekade pengalaman pusat data kami. “

A100 menampilkan lebih dari 54 miliar transistor, menjadikannya prosesor 7nm terbesar di dunia. “Itu pada dasarnya hampir pada batas teoritis dari apa yang mungkin dalam pembuatan semikonduktor hari ini,” jelas Huang. “Mati terbesar di dunia yang pernah dibuat, dan jumlah terbesar transistor dalam mesin komputasi yang pernah dibuat di dunia.”

GPU Ampere pertama Nvidia dirancang untuk pusat data dan AI

Nvidia meningkatkan core Tensornya untuk membuatnya lebih mudah digunakan untuk pengembang, dan A100 juga akan mencakup 19,5 teraflop kinerja FP32, 6.912 core CUDA, memori 40GB, dan bandwidth memori 1,6TB / s. Semua kinerja ini tidak akan mendukung versi terbaru dari Assassin’s Creed.

Sebagai gantinya, Nvidia menggabungkan GPU ini ke dalam sistem AI bertumpuk yang akan memberi daya superkomputer di pusat data di seluruh dunia. Sama seperti bagaimana Nvidia menggunakan arsitektur Volta sebelumnya untuk menciptakan sistem Tesla V100 dan DGX, sistem AI DGX A100 yang baru menggabungkan delapan GPU A100 ini menjadi GPU raksasa tunggal.

DGX A100

gpu ampere dgx 100

Sistem DGX A100 menjanjikan 5 petaflop kinerja, berkat delapan A100 ini, dan mereka digabungkan menggunakan NVLink versi ketiga Nvidia. Menggabungkan delapan GPU ini berarti ada 320GB memori GPU dengan 12,4TB / s bandwidth memori.

Nvidia juga menyertakan 15TB penyimpanan internal Gen4 NVMe untuk menjalankan tugas-tugas pelatihan AI. Para peneliti dan ilmuwan yang menggunakan sistem DGX A100 bahkan akan dapat membagi beban kerja menjadi hingga 56 instance. Menyebarkan tugas yang lebih kecil di seluruh GPU yang kuat.

Akuisisi Mellanox senilai $ 6,9 miliar dilakukan Nvidia baru-baru ini, pemasok jaringan server, juga ikut berperan. Karena DGX A100 mencakup sembilan antarmuka jaringan 200Gb / dtk untuk total 3,6Tb / dtk per detik bandwidth bidirectional.

Karena pusat data modern beradaptasi dengan beban kerja yang semakin beragam, teknologi Mellanox akan terbukti semakin penting bagi Nvidia. Huang menggambarkan Mellanox sebagai “jaringan penghubung” yang sangat penting dalam generasi pusat data berikutnya.

“Jika Anda melihat cara pusat data modern dirancang, beban kerja yang harus mereka lakukan lebih beragam dari sebelumnya”. “Pendekatan kami ke depan bukan hanya fokus pada server itu sendiri tetapi untuk memikirkan seluruh pusat data sebagai unit komputasi.

Ke depan, mungkin dunia akan memikirkan pusat data sebagai unit komputasi dan kami akan memikirkan komputasi skala pusat data. Tidak lagi hanya komputer atau server pribadi, tetapi kami akan beroperasi pada skala pusat data. “

Sekilas DGX A1000

dgx 100

Sistem DGX A100 Nvidia telah mulai dikirimkan. Dengan beberapa aplikasi pertama termasuk penelitian COVID-19 yang dilakukan di US Argonne National Laboratory.

“Kami menggunakan superkomputer paling kuat Amerika dalam perang melawan COVID-19, menjalankan model AI dan simulasi pada teknologi terbaru yang tersedia. Seperti NVIDIA DGX A100,” kata Rick Stevens, direktur laboratorium asosiasi untuk Ilmu Komputer, Lingkungan dan Ilmu Hayati di Argonne.

“Kekuatan komputasi dari sistem DGX A100 baru yang datang ke Argonne akan membantu para peneliti mengeksplorasi perawatan dan vaksin dan mempelajari penyebaran virus. Memungkinkan para ilmuwan untuk melakukan pekerjaan percepatan AI senilai bertahun-tahun dalam beberapa bulan atau hari.”

Nvidia mengatakan bahwa Microsoft, Amazon, Google, Dell, Alibaba, dan banyak penyedia layanan cloud besar lainnya juga berencana untuk memasukkan GPU A100 tunggal ke dalam penawaran mereka sendiri.

“Adopsi dan antusiasme untuk Ampere dari semua pembuat hiperskal dan pembuat komputer di seluruh dunia benar-benar belum pernah terjadi sebelumnya,” kata Huang. “Ini adalah peluncuran tercepat dari arsitektur pusat data baru yang pernah kita miliki, dan itu bisa dimengerti.”

Sama seperti sistem cluster DGX A100 yang lebih besar. Nvidia juga memungkinkan setiap GPU A100 individu untuk dipartisi menjadi hingga tujuh instance independen untuk tugas komputasi yang lebih kecil. Sistem ini tidak akan murah. DGX A100 Nvidia hadir dengan janji kinerja besar, tetapi sistem mulai dari $ 199.000 untuk kombinasi delapan chip A100 ini.

Arsitektur Ampere GPU

gpu ampere dgx 100

Tidak jelas bagaimana Nvidia sekarang akan membuat Ampere langsung menjadi GPU tingkat konsumen dulu. Nvidia memperkenalkan arsitektur Volta-nya, dengan prosesor kecerdasan buatan khusus (tensor core) dengan cara yang hampir sama dengan pembukaan Ampere saat ini.

Tetapi Volta tidak melanjutkan untuk memperkuat jajaran produk konsumen GeForce Nvidia. Alih-alih, Nvidia meluncurkan Volta yang didukung oleh V 2.999 Titan V (yang disebutnya “GPU PC paling kuat yang pernah dibuat”). Yang berfokus pada AI dan pemrosesan simulasi ilmiah, bukan game atau tugas kreatif.

Terlepas dari rumor Volta yang memperkuat kartu GeForce di masa depan, Nvidia malah memperkenalkan arsitektur Turing pada 2018, yang menggabungkan core tensor khusus dengan kemampuan penelusuran sinar baru.

Turing beralih ke kartu daya seperti RTX 2080 dan bukan Volta, hanya beberapa minggu setelah Huang mengatakan jajaran kartu grafis berikutnya tidak akan diluncurkan untuk “waktu yang lama”. Nvidia bahkan menghapus RT dan core Tensor untuk kartu bertenaga Turing seperti GTX 1660 Ti.

Kartu “RTX 3080” baru mungkin hanya beberapa bulan lagi, tetapi kami masih belum tahu pasti apakah mereka akan menggunakan arsitektur Ampere baru ini. “Ada tumpang tindih besar dalam arsitektur, itu tanpa keraguan,” mengisyaratkan Huang. “Konfigurasi, ukuran berbagai elemen chip sangat berbeda.”

Nvidia menggunakan memori HBM untuk GPU pusat data, dan itu bukan sesuatu yang digunakan perusahaan untuk GPU gaming PC konsumen. GPU pusat data juga lebih fokus pada tugas dan komputasi AI, daripada grafis. “Kami akan jauh lebih berat terhadap grafis dan kurang menuju floating point presisi ganda,” tambah Huang.

Spekulasi seputar rencana Ampere Nvidia telah meningkat baru-baru ini. Dan dengan PlayStation 5 dan Xbox Series X akan diluncurkan dengan solusi GPU yang didukung AMD akhir tahun ini. Nvidia pasti perlu memiliki sesuatu yang baru untuk ditawarkan gamer PC akhir tahun ini.

Add Comment