JAKARTA - Telegram terus meningkatkan upaya moderasi platform setiap harinya. Bahkan, pada awal 2024, Telegram memperkenalkan alat moderasi berbasis kecerdasan buatan (AI) untuk meningkatkan efektivitas dalam mendeteksi dan menghapus konten berbahaya.
CEO sekaligus pendiri Telegram, Pavel Durov dalam salurannya, mengatakan bahwa AI terbukti efektif untuk moderasi konten. Selama 2024, Telegram telah memblokir 15.474.022 grup dan saluran ilegal.
“Sejak 2015, moderasi telah menggabungkan laporan pengguna dengan pemantauan proaktif yang didukung oleh pembelajaran mesin. Pada awal 2024, upaya ini semakin ditingkatkan dengan alat moderasi AI yang canggih,” kata Durov.
Selain itu, Telegram juga sudah menerapkan kebijakan nol toleransi terhadap konten pelecehan seksual anak (CSAM). Sejak 2018, Telegram menggunakan basis data hash untuk mendeteksi dan memblokir gambar ilegal secara otomatis.
BACA JUGA:
Pada tahun 2024, Telegram memperluas basis data tersebut dengan dukungan dari organisasi seperti Internet Watch Foundation. Selama tahun 2024, Telegram mengungkapkan telah memblokir lebih dari 705.688 grup dan saluran terkait CSAM.
Sedangkan terkait terorisme, pada tahun 2024 Telegram mencatat telah memblokir 129.986 komunitas terkait terorisme, dengan dukungan organisasi seperti ETIDAL dan Europol. Secara total, sejak 2022 Telegram juga sudah menghapus lebih dari 100 juta konten teroris.
Telegram berkomitmen untuk menjaga keamanan platform dengan menerbitkan laporan transparansi harian, tujuannya adalah untuk menciptakan ruang digital yang aman dan bebas dari konten berbahaya.
“Kami selama bertahun-tahun dan menawarkan gambaran transparan tentang komitmen berkelanjutan kami untuk menjaga keamanan Telegram,” pungkas Durov.
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)