Nvidia Rilis Chip AI Terbaru, H200, dengan Bandwidth 141 GB
JAKARTA - Nvidia pada Senin, 13 November menambahkan fitur baru ke chip terbaiknya untuk kecerdasan buatan. Mereka menyatakan bahwa penawaran baru ini akan mulai diluncurkan tahun depan dengan Amazon.com, Google dari Alphabet, dan Oracle.
Chip yang dinamakan H200 ini akan menggantikan chip teratas saat ini, H100, dengan peningkatan utama yaitu memori bandwidth tinggi yang lebih besar, salah satu bagian termahal dari chip yang menentukan seberapa cepat data dapat diproses.
Nvidia mendominasi pasar chip kecerdasan buatan dan menjadi pendorong layanan ChatGPT dari OpenAI serta banyak layanan kecerdasan buatan generatif serupa yang merespons pertanyaan dengan penulisan mirip manusia. Penambahan lebih banyak memori bandwidth tinggi dan koneksi yang lebih cepat ke elemen pemrosesan chip. Ini berarti layanan semacam itu dapat memberikan jawaban dengan lebih cepat.
Baca juga:
H200 memiliki memori bandwidth tinggi sebesar 141 gigabyte, meningkat dari 80 gigabyte pada H100 sebelumnya. Nvidia tidak mengungkapkan pemasok untuk memori pada chip baru ini, tetapi Micron Technology mengatakan pada September bahwa mereka bekerja untuk menjadi pemasok Nvidia.
Nvidia juga membeli memori dari SK Hynix dari Korea, yang mengatakan bulan lalu bahwa chip kecerdasan buatan membantu menghidupkan kembali penjualan.
Nvidia juga mengumumkan bahwa Amazon Web Services, Google Cloud, Microsoft Azure, dan Oracle Cloud Infrastructure akan menjadi beberapa penyedia layanan cloud pertama yang menawarkan akses ke chip H200, selain penyedia layanan cloud kecerdasan buatan khusus seperti CoreWeave, Lambda, dan Vultr.