Pengemudi Tesla Model Y Keluhkan Fitur FSD yang Tak Mampu Hindari Tabrakan
JAKARTA - Seorang pengemudi Tesla Model Y telah mengajukan keluhan, dan mengklaim mobil mereka dalam mode Full Self-Driving (FSD) ketika menabrak kendaraan lain. Padahal dengan mode FSD seharusnya tabrakan tersebut bisa dihindari, namun pada kenyataannya tidak demikian.
Terlepas dari namanya, FSD bukanlah sistem mengemudi yang benar-benar otonom. Sebaliknya, ini adalah iterasi terbaru Tesla dari teknologi mengemudi berbantuan premiumnya, yang dibangun di atas penawaran Autopilot dan Enhanced Autopilot.
Saat ini tersedia sebagai produk beta, FSD mencakup semua fitur tingkat yang lebih rendah, sementara mereka juga menjanjikan fungsionalitas tambahan, seperti kemudi otomatis di jalan-jalan kota, dan kemampuan untuk berhenti sendiri di lampu lalu lintas.
Administrasi Keselamatan Lalu Lintas Jalan Raya Nasional AS (NHTSA) menggunakan skala enam poin untuk menggambarkan kendaraan tanpa pengemudi. Level 0 berarti tidak ada fitur otonom, sedangkan Level 5 mengacu pada otomatisasi penuh di mana tidak ada pengemudi manusia yang diperlukan agar kendaraan dapat melakukan perjalanan dengan aman di jalan umum.
Berdasarkan fitur-fiturnya yang sekarang, FSD diklasifikasikan sebagai Level 2, yang merupakan otomatisasi parsial. Memang, Tesla mengamanatkan semua pengguna sistem otonomnya untuk tetap memegang kemudi saat mengemudi. Jadi tidak bisa ditinggal tidur, saat mereka mengemudi.
Awal bulan ini, di Brea, California, Tesla Model Y 2021 ditabrak kendaraan lain saat pengemudi berbelok ke kiri. Seperti dicatat oleh The Next Web, sebuah pernyataan di situs web NHTSA menjelaskan bahwa pengemudi yang tidak disebutkan namanya itu mengklaim mobil mereka dalam mode FSD dan mengarahkan ke jalur yang salah selama belokan.
Orang tersebut mengatakan Model Y memberikan peringatan di tengah manuver, tetapi upaya mereka untuk memperbaiki lintasan tidak berhasil dan kendaraan tertabrak di sisi pengemudi. Untungnya, tidak ada korban luka yang dilaporkan, tetapi NHTSA mengatakan sedang menyelidiki insiden tersebut.
Insiden itu terjadi setelah Tesla menarik hampir 12.000 mobil bulan lalu karena masalah FSD.
Baca juga:
Perusahaan merilis pembaruan FSD beta 10.3 pada 23 Oktober, tetapi beberapa pengemudi segera menemukan masalah yang berkaitan dengan fitur peringatan tabrakan dan pengereman darurat kendaraan mereka.
Tesla untuk sementara menggulirkan pengguna kembali ke versi sebelumnya, sebelum mereka mengeluarkan tambalan (update). Tentu saja, perangkat lunak Tesla secara eksplisit ditawarkan sebagai versi beta, jadi tidak jelas apakah perusahaan dapat atau akan dimintai pertanggungjawaban atas insiden tabrakan itu.
Standar apa pun yang akan dipegang Tesla untuk teknologinya yang baru lahir, perlu diperhatikan oleh regulator. Tindakan terbaru oleh NHTSA ini mengikuti penyelidikan terhadap mobil Tesla yang dilaporkan menabrak kendaraan darurat saat dalam mode Autopilot.
Perlu juga dicatat bahwa ini bukanlah penyelidikan pertama yang berkaitan dengan FSD. Departemen Kendaraan Bermotor California juga sedang menyelidiki Tesla atas penggunaan frasa "mengemudi sendiri penuh" dan apakah itu termasuk iklan palsu yang menyesatkan.