JAKARTA - Google merilis detail baru pada Selasa 4 April tentang superkomputer yang digunakan untuk melatih model kecerdasan buatan, dengan mengatakan bahwa sistem-sistem tersebut lebih cepat dan lebih hemat daya daripada sistem-sistem sejenis dari Nvidia Corp.
Google telah merancang chip kustom sendiri yang disebut Tensor Processing Unit atau TPU. Chip tersebut digunakan untuk lebih dari 90% dari pekerjaan perusahaan pada pelatihan kecerdasan buatan, yaitu proses memberikan data melalui model untuk membuatnya berguna dalam tugas-tugas seperti menjawab pertanyaan dengan teks yang menyerupai manusia atau menghasilkan gambar.
TPU Google sekarang berada pada generasi keempat. Google pada Selasa mempublikasikan makalah ilmiah yang menguraikan bagaimana perusahaan telah menghubungkan lebih dari 4.000 chip ke dalam superkomputer menggunakan switch optik yang dikembangkan khusus oleh Google sendiri untuk membantu menghubungkan mesin-mesin individual.
Meningkatkan koneksi ini telah menjadi titik persaingan utama di antara perusahaan-perusahaan yang membangun superkomputer kecerdasan buatan karena model bahasa besar yang memungkinkan teknologi seperti Bard Google atau ChatGPT OpenAI telah meledak dalam ukuran, yang berarti mereka terlalu besar untuk disimpan pada satu chip.
Model-model tersebut harus dibagi-bagi di antara ribuan chip, yang kemudian harus bekerja sama selama berminggu-minggu atau lebih untuk melatih model. Model PaLM Google - model bahasa terbesar yang diungkapkan secara publik sampai saat ini - dilatih dengan membaginya di antara dua superkomputer 4.000 chip selama 50 hari.
BACA JUGA:
Google mengatakan superkomputernya membuat mudah untuk mengkonfigurasi ulang koneksi antara chip-chip, membantu menghindari masalah dan menyesuaikan peningkatan kinerja.
"Sirkuit switching memudahkan rute menghindari komponen yang gagal," kata Google Fellow Norm Jouppi dan Google Distinguished Engineer, David Patterson dalam sebuah posting blog tentang sistem tersebut. "Fleksibilitas ini bahkan memungkinkan kita untuk mengubah topologi interkoneksi superkomputer untuk mempercepat kinerja model ML (machine learning)."
Meskipun Google hanya merilis detail tentang superkomputernya sekarang, sistem tersebut telah online di dalam perusahaan sejak 2020 di pusat data di Mayes County, Oklahoma. Google mengatakan bahwa startup Midjourney menggunakan sistem tersebut untuk melatih modelnya, yang menghasilkan gambar segar setelah diberi beberapa kata teks.
Dalam makalah tersebut, Google mengatakan bahwa untuk sistem seukuran yang sama, chip-chipnya lebih cepat hingga 1,7 kali dan 1,9 kali lebih hemat daya daripada sistem yang berbasis pada chip Nvidia A100 yang beredar pada saat yang sama dengan TPU generasi keempat.
Jurubicara Nvidia menolak untuk berkomentar, saat dimintai tanggapan oleh Reuters.
Google mengatakan bahwa perusahaan tidak membandingkan generasi keempatnya dengan chip unggulan Nvidia saat ini, H100, karena H100 masuk ke pasar setelah chip Google dan dibuat dengan teknologi yang lebih baru.
Google memberikan petunjuk bahwa mereka mungkin sedang mengerjakan TPU baru yang akan bersaing dengan Nvidia H100 tetapi tidak memberikan rincian, dengan Jouppi memberitahu Reuters bahwa Google memiliki "pipa pengembangan chip masa depan yang sehat."