JAKARTA — Discord bersiap mengubah wajah platformnya. Mulai Maret 2026, aplikasi komunikasi populer itu akan menerapkan kebijakan baru yang membuat semua akun pengguna disetel sebagai akun remaja secara default, kecuali pengguna bersedia menjalani proses verifikasi usia yang dinilai invasif oleh sebagian pihak.
Kebijakan ini diumumkan Discord pada Senin 9 Februari, sebagai bagian dari peluncuran enhanced teen safety features. Perusahaan menyatakan seluruh pengguna baru maupun lama di seluruh dunia akan mendapatkan pengalaman yang “ramah remaja” secara otomatis, termasuk pengaturan komunikasi yang lebih ketat, pembatasan akses ke ruang dengan batas usia, serta pemfilteran konten.
“Semua pengguna akan memiliki pengalaman yang sesuai untuk remaja secara default, dengan pengaturan komunikasi terbaru, pembatasan akses ke ruang dengan batas usia, dan pemfilteran konten yang tetap menjaga privasi serta koneksi bermakna yang menjadi ciri Discord,” tulis perusahaan dalam pengumumannya.
Konsekuensinya jelas. Pengguna yang ingin mengakses konten sensitif wajib membuktikan bahwa mereka berusia dewasa. Konten yang dimaksud mencakup kanal, server, perintah aplikasi dengan batas usia, hingga permintaan pesan tertentu.
Bagi pengguna yang memilih tidak melakukan verifikasi usia, Discord akan memberlakukan sejumlah pembatasan. Konten sensitif akan tetap diburamkan dan tidak bisa dinonaktifkan. Akses ke kanal dan server dengan batas usia ditutup. Pesan langsung dari orang yang tidak dikenal akan masuk ke kotak khusus, tanpa opsi untuk mengubah pengaturannya. Pengguna juga akan menerima peringatan saat ada permintaan pertemanan dari akun yang tidak dikenal, serta dilarang berbicara di fitur stage dalam server.
BACA JUGA:
Untuk verifikasi usia, Discord menawarkan dua metode. Pertama, estimasi usia melalui swafoto video yang diproses di perangkat. Kedua, mengunggah dokumen identitas resmi, seperti paspor atau SIM, ke mitra vendor pihak ketiga yang bekerja sama dengan Discord.
Opsi kedua inilah yang memicu kekhawatiran. Pada Oktober 2025, sekitar empat bulan lalu, terjadi kebocoran data besar yang diduga membuat foto paspor dan SIM hingga 2,1 juta pengguna Discord dicuri peretas. Discord menyebut hanya sekitar 70.000 pengguna yang terdampak, dan menegaskan insiden itu tidak menyerang sistem internal mereka, melainkan sistem vendor layanan pelanggan pihak ketiga, 5CA Systems. Pihak 5CA Systems sendiri menyatakan tidak bersalah.
Meski demikian, Discord kembali menegaskan proses verifikasi usia ini aman dan berorientasi pada privasi. Klaim tersebut disambut skeptis oleh sebagian pengamat, yang menilai risiko kebocoran data identitas masih terlalu besar untuk diabaikan.
Di balik kontroversi itu, Discord menegaskan tujuannya adalah melindungi anak-anak. “Menjaga anak-anak tetap aman, terutama di Discord, adalah hal yang baik,” tulis AppleInsider dalam ulasannya, sembari menambahkan bahwa perbedaan antara menyelesaikan masalah dan justru menciptakan masalah baru kini menjadi perdebatan utama.
Kebijakan Discord ini juga mencerminkan arah baru internet global. Selama bertahun-tahun, pembuat undang-undang di Amerika Serikat berupaya mencari cara untuk menekan perusahaan teknologi agar lebih bertanggung jawab terhadap keselamatan anak di dunia digital. Upaya terbaru adalah App Store Accountability Act (ASAA) yang diperkenalkan pada Mei 2025, meski hingga kini belum lolos di tingkat federal.
ASAA bertujuan memberi orang tua lebih banyak alat untuk melindungi anak secara daring, dengan mewajibkan verifikasi usia di tingkat toko aplikasi. Walau belum berlaku secara nasional, beberapa negara bagian seperti Utah dan Louisiana telah mengadopsi aturan serupa. Sementara itu, upaya Texas diblokir sementara oleh hakim federal pada Desember lalu.
Apple dan Google sebenarnya sudah memiliki ekosistem perlindungan anak masing-masing. Apple, misalnya, menyediakan child account dengan kontrol ketat, mulai dari batas waktu layar, pembatasan konten, hingga penyaringan aplikasi dan konten eksplisit. Di iOS 26, Apple bahkan menyederhanakan proses pembuatan akun anak, memperluas rating usia, dan menambah pengaturan batas komunikasi. Google memiliki fitur serupa untuk akun anak yang dikelola orang tua.
Masalahnya, semua alat tersebut bersifat opsional dan bergantung pada inisiatif orang tua. Inilah celah yang mendorong pemerintah ingin mengambil peran lebih besar.
Bagi Discord, tantangannya lebih kompleks. Aplikasi ini bersifat lintas platform, tersedia di ponsel, tablet, desktop, hingga browser. Artinya, Discord tidak bisa sepenuhnya mengandalkan sistem verifikasi usia Apple atau Google, terutama bagi pengguna muda yang mengakses layanan ini langsung lewat peramban.
Dengan kebijakan baru ini, Discord menempatkan dirinya di garis depan perdebatan antara keselamatan anak, privasi pengguna, dan kenyamanan digital. Internet mungkin sedang menuju era baru yang lebih terkontrol, tetapi bagi banyak pengguna, harga yang harus dibayar terasa semakin mahal.