JAKARTA - Perancang chip dan perusahaan komputasi dari A.S., Nvidia Corp pada Rabu, 16 November mengatakan sedang bekerja sama dengan Microsoft Corp untuk membangun komputer "besar" guna menangani pekerjaan komputasi kecerdasan buatan yang intens di cloud.
Komputer AI akan beroperasi di cloud Azure Microsoft, menggunakan puluhan ribu unit pemrosesan grafis (GPU), H100 Nvidia yang paling kuat, dan chip A100-nya. Nvidia menolak untuk mengatakan berapa nilai kesepakatan itu, tetapi sumber industri mengatakan setiap chip A100 dihargai sekitar 10.000 hingga 12.000 dolar AS (Rp 154 juta hingga 185 juta) dan H100 jauh lebih mahal dari itu.
We announced a multi-year collaboration with @Microsoft to build one of the most powerful AI supercomputers in the world, to help enterprises train, deploy and scale #AI, including large, state-of-the-art models. https://t.co/9UtbeRVGyd #Azure #NVIDIAonAzure
— NVIDIA (@nvidia) November 16, 2022
"Kami berada di titik perubahan di mana AI datang ke perusahaan dan mendapatkan layanan tersebut di luar sana yang dapat digunakan pelanggan untuk menerapkan AI untuk kasus penggunaan bisnis menjadi nyata," kata Ian Buck, manajer umum Nvidia untuk Hyperscale dan HPC kepada Reuters.
"Kami melihat gelombang besar adopsi AI ... dan kebutuhan untuk menerapkan AI untuk kasus penggunaan perusahaan," tambahnya.
BACA JUGA:
Selain menjual chip Microsoft, Nvidia mengatakan akan bermitra dengan perangkat lunak dan raksasa cloud untuk mengembangkan model AI. Buck mengatakan Nvidia juga akan menjadi pelanggan komputer cloud AI Microsoft dan mengembangkan aplikasi AI di atasnya untuk menawarkan layanan kepada pelanggan.
Pesatnya pertumbuhan model AI seperti yang digunakan untuk pemrosesan bahasa alami telah meningkatkan permintaan secara tajam akan infrastruktur komputasi yang lebih cepat dan lebih bertenaga.
Nvidia mengatakan Azure akan menjadi cloud publik pertama yang menggunakan teknologi jaringan Quantum-2 InfiniBand yang memiliki kecepatan 400 gigabit per detik. Teknologi jaringan itu menghubungkan server dengan kecepatan tinggi. Ini penting karena pekerjaan komputasi AI yang berat membutuhkan ribuan chip untuk bekerja bersama di beberapa server.