JAKARTA - OpenAI, startup di San Francisco yang didanai oleh Microsoft Corp dan digunakan untuk teknologi terbaru mereka, mengumumkan bahwa mereka sedang mengembangkan pembaruan untuk chatbot viral mereka, ChatGPT, yang dapat disesuaikan untuk pengguna. Hal ini dilakukan untuk mengatasi kekhawatiran tentang bias dalam kecerdasan buatan (AI).
Meskipun telah berupaya untuk mengurangi bias politik dan lainnya, OpenAI ingin menampung pandangan yang lebih beragam. “Ini akan berarti memungkinkan output sistem yang orang lain (termasuk kami) mungkin sangat tidak setuju,” kata OpenAI dalam sebuah posting blog seperti dikutip Reuters. Meski mereka menawarkan kustomisasi sebagai solusi, namun, tetap ada “batasan pada perilaku sistem.”
Chatbot yang dirilis pada November tahun lalu ini telah menimbulkan minat yang luar biasa dalam teknologi di baliknya yang disebut generative AI. Teknologi ini digunakan untuk menghasilkan jawaban yang meniru pidato manusia dan telah menakjubkan banyak orang.
Munculnya berita dari startup ini juga seiring dengan beberapa media yang menunjukkan bahwa jawaban dari mesin pencari baru Microsoft, Bing, yang didukung oleh OpenAI, berpotensi berbahaya dan teknologi ini mungkin belum siap untuk digunakan.
BACA JUGA:
Bagaimana perusahaan teknologi menetapkan guardrail untuk teknologi yang masih baru ini menjadi fokus utama bagi perusahaan di ruang generative AI. Microsoft mengatakan pada Rabu 15 Februari bahwa umpan balik dari pengguna membantu mereka meningkatkan Bing sebelum diluncurkan secara lebih luas. Dalam belajar misalnya bahwa chatbot AI mereka dapat “memicu” untuk memberikan jawaban yang tidak dimaksudkan.
OpenAI mengatakan dalam posting blog mereka bahwa jawaban ChatGPT didasarkan pada dataset besar teks yang tersedia di Internet. Sebagai tahap kedua, manusia meninjau dataset yang lebih kecil dan diberikan panduan untuk berbagai situasi.
Misalnya, dalam hal pengguna meminta konten yang dewasa, kekerasan, atau mengandung ujaran kebencian, reviewer manusia harus mengarahkan Chatbot GPT untuk menjawab dengan sesuatu seperti "Saya tidak dapat menjawab itu."
Jika ditanya tentang topik kontroversial, reviewer harus membiarkan Chatbot GPT menjawab pertanyaan, tetapi menawarkan untuk menggambarkan pandangan orang dan gerakan, alih-alih mencoba untuk “mengambil pandangan yang benar tentang topik yang kompleks,” jelas perusahaan dalam kutipan pedoman untuk perangkat lunak mereka.