Pengguna Tesla Kecelakaan saat Siaran Langsung Penggunaan Fitur Mengemudi Otomatis

JAKARTA - Niat hati memamerkan kecanggihan teknologi justru berubah menjadi sebuah kecelakaan. Sebuah Tesla Model 3 terlibat tabrakan frontal setelah melaju melawan arus lalu lintas, tepat ketika fitur Full Self Driving (FSD) diaktifkan dalam sebuah siaran langsung di platform Douyin.

Insiden ini terjadi tak lama setelah Tesla memperkenalkan sistem bantuan mengemudi Level 2 FSD di China pada awal tahun. Seperti di Amerika Serikat, fitur tersebut tetap menuntut pengawasan penuh dari pengemudi.

Bahkan, otoritas setempat sempat meminta Tesla meninjau ulang penamaan “Full Self-Driving” karena dinilai tidak sepenuhnya mencerminkan kemampuan sistem. Sementara itu di China, euforia terhadap FSD cukup tinggi, dilansir dari Electrek, Kamis, 25 Desember.

Banyak pemilik Tesla menguji fitur ini secara terbuka lewat siaran langsung di sosial media, berusaha menunjukkan bahwa mobil bisa berjalan sendiri. Ini juga sekaligus membandingkannya dengan teknologi pesaing lokal.

Sialnya, salah satu siaran justru berakhir buruk. Dalam video yang kemudian viral, Tesla Model 3 yang dikendarai seorang pengguna Douyin terlihat tiba-tiba berpindah ke jalur kiri, jalur khusus kendaraan dari arah berlawanan.

Alhasil, mobil Tesla tersebut menghantam mobil lain yang ada di depannya secara frontal. Siaran langsung itu memang tak ramai penonton, tetapi rekaman kecelakaannya menyebar cepat di media sosial.

Beruntung, kecelakaan tersebut tidak menimbulkan luka serius. Meski begitu, publik mempertanyakan apakah FSD benar-benar aktif saat kejadian.

Awalnya, sang pengemudi menahan rilis video dengan alasan sedang mengupayakan kompensasi langsung dari Tesla. Di mana, itu langkah yang dinilai sulit, mengingat pabrikan selalu menegaskan bahwa tanggung jawab tetap berada di tangan pengemudi.

Keraguan itu akhirnya terjawab, rekaman lengkap yang dirilis kemudian memperlihatkan FSD aktif dan menjadi pemicu perpindahan jalur ke arah yang salah. Kasus ini kembali menyoroti bahaya terlalu mengandalkan sistem bantuan mengemudi.

Sementara itu, pengadilan California saja telah memutuskan Tesla terbukti melakukan pemasaran menipu terkait sistem bantuan pengemudi Full Self Driving atau autopilot. Izin Tesla menjual dan memproduksi kendaraan di negara bagian tersebut ditangguhkan selama 30 hari.

Sejak 2016, Tesla menjual perangkat lunak bantuan pengemudi level 2 dengan nama Full Self-Driving, meski sistem tersebut tidak dan hingga kini masih belum membuat kendaraan mampu mengemudi sepenuhnya tanpa campur tangan manusia.

Penamaan itu dinilai memicu kebingungan publik, terlebih Tesla berulang kali menyebut target otonomi penuh yang tak kunjung tercapai. Selain FSD, Tesla juga menggunakan istilah Autopilot untuk fitur bantuan mengemudi lainnya.