JAKARTA – Sebuah video yang 'sangat mengganggu' menunjukkan sebuah mobil Tesla dalam mode full self-driving penuh menabrak manekin ukuran anak-anak selama tes oleh kelompok kampanye keselamatan.
The Dawn Project mengatakan kendaraan itu gagal mendeteksi keberadaan boneka stasioner di jalan dan menabraknya berulang kali dengan kecepatan rata-rata 25 mph (40 km/jam). Mereka mengklaim bahwa percobaan dilakukan di bawah 'kondisi terkendali' di jalur uji di California.
Tesla, yang didirikan oleh pengusaha miliarder Elon Musk, telah dimintai komentar oleh MailOnline tetapi belum menanggapi video tersebut.
.@elonmusk, is your @Tesla Full Self-Driving software just a trillion dollar Ponzi scheme? Did you become the wealthiest man in history by swindling customers and investors?
Here's the story, in your own words:#FSDDelendaEst pic.twitter.com/WDOoKKLYgv
— The Dawn Project (@RealDawnProject) June 9, 2022
Administrasi Keselamatan Lalu Lintas Jalan Raya Nasional AS (NHTSA) mengkonfirmasi bahwa mereka 'saat ini melakukan penyelidikan terbuka dan aktif terhadap sistem bantuan pengemudi aktif Autopilot Tesla'.
Seorang juru bicara mengatakan ini termasuk perangkat lunak self-driving penuh dan bahwa agensi 'mempertimbangkan semua data dan informasi yang relevan yang dapat membantu penyelidikannya'.
Dawn Project merilis video tersebut sebagai bagian dari peluncuran kampanye iklan keselamatan publik nasional yang menyoroti bahaya perangkat lunak swakemudi penuh Tesla.
“Hasil yang sangat mengganggu dari uji keamanan Tesla full self-driving penuh kami harus menjadi seruan untuk bertindak,' kata Dan O'Dowd, pendiri The Dawn Project.
BACA JUGA:
“Elon Musk mengatakan perangkat lunak Full Self-Driving Tesla adalah "luar biasa". Ini bukan. Ini adalah ancaman mematikan bagi semua orang Amerika,” ujar O’Dowd, seperti dikutip Daily Mail.
Dia menambahkan bahwa lebih dari 100.000 pengemudi Tesla sudah menggunakan mode full self-driving mobil di jalan umum, sehingga menempatkan anak-anak pada risiko besar di masyarakat di seluruh negeri.'
Uji keamanan dilakukan di Willow Springs International Raceway dan lintasan uji di Rosamond, California pada 21 Juni.
Uji coba ini direkam dan rekaman menunjukkan Tesla dalam mode full self-driving berulang kali berjalan di atas manekin seukuran anak.
“NHTSA saat ini memiliki penyelidikan terbuka dan aktif terhadap sistem bantuan pengemudi aktif autopilot Tesla, termasuk perangkat lunak "pengemudi mandiri penuh," kata Seorang juru bicara NHTSA.
“Karena analisis teknik itu sedang berlangsung, NHTSA mempertimbangkan semua data dan informasi yang relevan yang dapat membantu badan tersebut dalam penyelidikannya,” tambah mereka.
Pada bulan Februari tahun ini, Tesla menarik hampir 54.000 mobil dan SUV karena perangkat lunak full self-driving mereka ditemukan kesalahan karena membiarkan mereka melewati tanda berhenti (stop sign) tanpa berhenti total.
Pembaruan perangkat lunak over-the-internet, yang sedang diuji oleh sejumlah pengemudi, memungkinkan kendaraan melewati persimpangan dengan tanda berhenti hingga 5,6 mil per jam.
Dokumen yang dibagikan oleh regulator keselamatan AS mengatakan Tesla telah menyetujui penarikan setelah dua pertemuan dengan pejabat dari NHTSA.
Tesla mengatakan pada saat itu bahwa mereka tidak mengetahui adanya crash atau cedera yang disebabkan oleh fitur tersebut, dan bahwa tidak ada klaim garansi sebagai akibat dari masalah dengan pembaruan rolling start.
Penarikan tersebut mencakup sedan Model S dan SUV X dari 2016 hingga 2022, serta sedan Model 3 2017 hingga 2022 dan SUV Model Y 2020 hingga 2022.
Pengujian beta dari perangkat lunak full self-driving ini dilakukan oleh driver Tesla yang dipilih secara acak. Namun, mobil tidak dapat mengemudi sendiri dan pengemudi harus siap mengambil tindakan setiap saat.
Pendukung keselamatan mengeluhkan bahwa Tesla seharusnya tidak diizinkan untuk menguji kendaraan di jalan umum dengan pengemudi yang tidak terlatih, dan bahwa perangkat lunak Tesla dapat tidak berfungsi, yang membuat pengendara lain dan pejalan kaki dalam bahaya.
Sebagian besar perusahaan mobil melakukan tes perangkat lunak serupa dengan pengemudi keselamatan manusia yang terlatih.
Pada November tahun lalu, NHTSA mengatakan sedang mencari keluhan dari pengemudi Tesla bahwa perangkat lunak self-driving penuh telah menyebabkan crash (tabrakan).
Pengemudi mengatakan Model Y mereka masuk ke jalur yang salah dan ditabrak kendaraan lain. SUV itu memberi peringatan kepada pengemudi di tengah belokan dan pengemudi mencoba memutar kemudi untuk menghindari lalu lintas lain, menurut pengaduan tersebut.
“Tapi mobil itu mengambil kendali dan 'memaksa dirinya ke jalur yang salah,” kata si pengemudi.
Tidak ada yang terluka dalam kecelakaan pada 3 November di Brea, California, menurut laporan itu.
Pada bulan Desember, Tesla setuju untuk memperbarui sistem bantuan pengemudi autopilot yang kurang canggih setelah NHTSA membuka penyelidikan.
Perusahaan setuju untuk berhenti mengizinkan video game dimainkan di layar sentuh tengah saat kendaraannya bergerak.
Badan tersebut juga menyelidiki mengapa Tesla dengan autopilot berulang kali menabrak kendaraan darurat yang diparkir di jalan.