Bagikan:

JAKARTA - YouTube telah menghapus video yang menunjukkan pengemudi Tesla melakukan tes keselamatan mereka sendiri untuk menentukan apakah kemampuan EV (kendaraan listrik) Full Self-Driving (FSD) akan membuatnya berhenti secara otomatis ketika bertemu anak-anak yang berjalan melintasi atau berdiri di jalan. Ini pertama kali dilaporkan oleh CNBC.

Video berjudul "Apakah Tesla Full-Self Driving Beta benar-benar melindas anak-anak?" awalnya diposting di saluran YouTube Whole Mars Catalog dan melibatkan pemilik dan investor Tesla, Tad Park, yang menguji fitur FSD Tesla dengan anak-anaknya sendiri.

Selama video, Park mengendarai Tesla Model 3 ke arah salah satu anaknya yang berdiri di jalan, dan kemudian mencoba lagi dengan anaknya yang lain yang menyeberang jalan. Kendaraan berhenti sebelum mencapai anak-anak untuk kedua kali.

Sebagaimana diuraikan di halaman dukungannya, YouTube memiliki aturan khusus terhadap konten yang "membahayakan kesejahteraan emosional dan fisik anak di bawah umur," termasuk "aksi berbahaya, tantangan, atau lelucon".

Juru bicara YouTube, Ivy Choi, mengatakan kepada The Verge bahwa video tersebut melanggar kebijakannya terhadap konten berbahaya, dan bahwa platform tersebut “tidak mengizinkan konten yang menunjukkan anak di bawah umur berpartisipasi dalam aktivitas berbahaya atau mendorong anak di bawah umur untuk melakukan aktivitas berbahaya.” Choi mengatakan YouTube memutuskan untuk menghapus video itu.

“Saya sudah mencoba FSD beta sebelumnya, dan saya memercayai kehidupan anak-anak saya dengan mereka,” kata Park selama video yang sekarang dihapus. "Jadi saya sangat yakin itu (FSD) akan mendeteksi anak-anak saya, dan saya juga mengendalikan kemudi sehingga saya bisa mengerem kapan saja," kata Park kepada CNBC bahwa mobil itu tidak pernah melaju lebih dari delapan mil per jam, dan "memastikan mobil mengenali anak itu."

Pada 18 Agustus, video tersebut memiliki lebih dari 60.000 tampilan di YouTube. Video itu juga diposting ke Twitter dan masih tersedia untuk ditonton. The Verge menghubungi Twitter untuk melihat apakah ada rencana untuk menghapusnya tetapi tidak segera mendapat tanggapan.

Ide gila untuk menguji FSD dengan anak-anak nyata, yang hidup dan bernapas, muncul setelah kampanye video dan iklan yang diposting ke Twitter menunjukkan kendaraan Tesla tampaknya gagal mendeteksi dan bertabrakan dengan boneka berukuran anak-anak yang ditempatkan di depan kendaraan.

Penggemar Tesla tidak membelinya, memicu perdebatan tentang keterbatasan fitur di Twitter. Whole Mars Catalog, saluran Twitter dan YouTube yang digerakkan oleh EV yang dijalankan oleh investor Tesla Omar Qazi, kemudian mengisyaratkan untuk membuat video yang melibatkan anak-anak sungguhan dalam upaya untuk membuktikan bahwa hasil aslinya salah.

Menanggapi video tersebut, Administrasi Keselamatan Lalu Lintas Jalan Raya Nasional (NHTSA) mengeluarkan pernyataan peringatan agar tidak menggunakan anak-anak untuk menguji teknologi mengemudi otomatis.

"Tidak ada yang harus mempertaruhkan nyawa mereka, atau nyawa orang lain, untuk menguji kinerja teknologi kendaraan," kata agensi tersebut kepada Bloomberg. “Konsumen tidak boleh mencoba membuat skenario pengujian mereka sendiri atau menggunakan orang sungguhan, dan terutama anak-anak, untuk menguji kinerja teknologi kendaraan.”

Perangkat lunak FSD Tesla tidak membuat kendaraan sepenuhnya otonom. Ini tersedia untuk pengemudi Tesla dengan tambahan 12.000 dolar AS (Rp 178 juta) per tahun (atau berlangganan 199 dolar AS (Rp 2952762)/ bulan).

Setelah Tesla menentukan bahwa seorang pengemudi memenuhi skor keselamatan tertentu, maka mereka bisa membuka akses ke FSD beta, yang memungkinkan pengemudi untuk memasukkan tujuan dan membuat kendaraan mengemudi di sana menggunakan Autopilot, sistem bantuan pengemudi canggih kendaraan (ADAS). Namun pengemudi harus tetap memegang kemudi dan siap mengambil kendali kapan saja.

Awal bulan ini, DMV California menuduh Tesla membuat klaim palsu tentang Autopilot dan FSD. Agensi tersebut menuduh nama kedua fitur tersebut, serta deskripsi Tesla tentang mereka, secara keliru menyiratkan bahwa mereka memungkinkan kendaraan untuk beroperasi secara mandiri.

Pada bulan Juni, NHTSA merilis data tentang kecelakaan bantuan pengemudi untuk pertama kalinya, dan menemukan bahwa kendaraan Tesla yang menggunakan kendaraan Autopilot terlibat dalam 273 kecelakaan dari 20 Juli 2021 hingga 21 Mei 2022.

NHTSA saat ini sedang menyelidiki sejumlah insiden di mana kendaraan Tesla yang menggunakan teknologi bantuan pengemudi bertabrakan dengan kendaraan darurat yang diparkir, selain lebih dari dua lusin kecelakaan Tesla, beberapa di antaranya berakibat fatal.