Groq Membuat Sensasi di Media Sosial dengan Kecepatan Responsnya yang Luar Biasa
Groq, model kecerdasan buatan terbaru yang muncul ke permukaan (foto: x @GroqInc)

Bagikan:

JAKARTA -Groq, model kecerdasan buatan terbaru yang muncul ke permukaan, sedang mencuri perhatian di media sosial dengan kecepatan responsnya dan teknologi baru yang mungkin menghilangkan kebutuhan akan GPU.

Groq menjadi sensasi dalam semalam setelah tes benchmark publiknya menjadi viral di platform media sosial X, mengungkapkan kecepatan komputasi dan responsnya yang mengungguli chatbot kecerdasan buatan ChatGPT yang populer.

Hal ini disebabkan oleh tim di balik Groq yang mengembangkan chip sirkuit terpadu (ASIC) khusus aplikasi mereka sendiri untuk model bahasa besar (LLM), memungkinkan Groq menghasilkan sekitar 500 token per detik. Dibandingkan dengan ChatGPT-3.5, versi model yang tersedia secara publik, yang hanya bisa menghasilkan sekitar 40 token per detik.

Groq Inc, pengembang model ini, mengklaim telah menciptakan unit pemrosesan bahasa (LPU) pertama di mana mereka menjalankan model mereka, bukan dengan menggunakan unit pemrosesan grafis (GPU) yang biasanya digunakan untuk menjalankan model kecerdasan buatan.

Namun, perusahaan di balik Groq bukanlah hal baru. Perusahaan ini didirikan pada tahun 2016, ketika merek dagang nama Groq didaftarkan. November lalu, ketika model kecerdasan buatan milik Elon Musk, juga disebut Grok — tapi dieja dengan "k" — mendapat perhatian, pengembang di balik Groq asli mempublikasikan sebuah pos blog menyoroti Musk karena pilihan nama itu.

"Kami bisa memahami mengapa Anda ingin mengambil nama kami. Anda menyukai hal-hal yang cepat (roket, hyperloop, nama perusahaan satu huruf) dan produk kami, Groq LPU Inference Engine, adalah cara tercepat untuk menjalankan model bahasa besar (LLM) dan aplikasi kecerdasan buatan generatif lainnya. Namun, kami harus meminta Anda untuk memilih nama lain, dan cepat," ungkap eksekutif Groq.

Sejak Groq menjadi viral di media sosial, baik Musk maupun halaman Grok di X tidak membuat komentar apapun tentang kemiripan nama kedua model tersebut.

Meskipun demikian, banyak pengguna di platform tersebut telah mulai membandingkan model LPU dengan model berbasis GPU lainnya.

Seorang pengguna yang bekerja dalam pengembangan kecerdasan buatan menyebut Groq sebagai "perubahan besar" untuk produk yang membutuhkan laten rendah, yang merujuk pada waktu yang dibutuhkan untuk memproses permintaan dan mendapatkan respons.

Seorang pengguna lain menulis bahwa LPU Groq bisa menawarkan "peningkatan besar" dibandingkan dengan GPU dalam memenuhi kebutuhan aplikasi kecerdasan buatan di masa depan dan mengatakan bahwa hal ini mungkin juga menjadi alternatif yang baik untuk "perangkat keras yang kinerjanya tinggi" dari chip A100 dan H100 yang sedang dicari-cari yang diproduksi oleh Nvidia.

Ini muncul pada saat  pengembang kecerdasan buatan utama berupaya untuk mengembangkan chip in-house agar tidak hanya bergantung pada model Nvidia.

OpenAI dilaporkan sedang mencari triliunan dolar dalam pendanaan dari pemerintah dan investor di seluruh dunia untuk mengembangkan chip mereka sendiri untuk mengatasi masalah dalam mengembangkan produk mereka.