Tesla Exige Que Les Utilisateurs De FSD Soumettent Des Vidéos En Cas D’accident
Tesla a certainement eu une vidéo lorsque sa voiture de produit a été impliquée dans une collision. (crédit photo : pixabay)

Partager:

JAKARTA – Tesla déploie la dernière version bêta de son logiciel Full Self-Driving (FSD) et demande l’approbation du conducteur pour collecter des images identifiables par le véhicule en cas d’accident.

FSD est un système d’aide à la conduite basé sur la technologie Autopilot de Tesla. Bien que le nom suggère que la voiture est en plein contrôle, il s’agit en fait d’un programme semi-autonome qui exige que le conducteur garde le contrôle du véhicule à tout moment.

Tesla a lancé la version bêta de FSD en tant que pilote automatique de niveau premium en octobre de l’année dernière. Tesla a d’abord fourni un logiciel pour sélectionner des conducteurs « experts et prudents », leur facturant 10 000 $ pour le privilège.

La société a depuis mis FSD à la disposition d’un plus grand nombre de conducteurs en offrant un abonnement de 199 $ par mois. Les utilisateurs de FSD ont accès à toutes les fonctionnalités standard de pilote automatique et de pilote automatique amélioré, ainsi qu’à la direction automatique pour les rues de la ville, ainsi qu’au contrôle automatique de la circulation et des panneaux d’arrêt.

Tesla dit qu’il a plus de fonctionnalités prévues et continue d’itérer sur le FSD en publiant des mises à jour régulières de la version ponctuelle pour la technologie.

Avec FSD 10.5, Tesla demande aux utilisateurs de lui permettre de collecter des vidéos à partir de caméras à l’intérieur et à l’extérieur du véhicule lors d’une collision. Tesla inclut un langage dans le contrat d’utilisation 10.5 et, selon Electrek, les clients doivent accepter s’ils souhaitent utiliser la dernière version du logiciel bêta.

L’avis explique également que le clip est lié à un numéro d’identification du véhicule (VIN), ce qui permet à Tesla de savoir précisément quelle voiture - et probablement quel conducteur - a été impliqué dans l’accident.

Il est important de noter que Tesla a longtemps extrait des images et d’autres données des voitures des clients, mais elles ont toujours été anonymisées et non liées à un conducteur spécifique. La société de véhicules électriques affirme qu’elle utilise cette collecte d’informations pour améliorer les performances et la sécurité de ses véhicules.

Cependant, il est inévitable que tout système qui interagit avec le serveur distant risque d’être piraté. Cela peut s’appliquer aux voitures connectées ainsi qu’aux PC. En effet, un hacker éthique a déjà montré comment les caméras Tesla peuvent être violées.

Dans cet esprit, il est facile d’imaginer que Tesla comprend les risques associés à la collecte de clips associés à certains véhicules et à leurs propriétaires. Cependant, la société a récemment fait l’objet d’un examen minutieux après qu’un conducteur a affirmé que sa voiture avait effectué des manœuvres erratiques lorsque FSD était utilisé.

L’incident a déclenché une enquête de la National Highway Traffic Safety Administration (NHTSA) des États-Unis, une agence qui a déjà critiqué les constructeurs automobiles pour leur approche de la technologie de conduite autonome.

Pour Tesla, être en mesure de recueillir des preuves visuelles identifiables des moments entourant l’accident s’avérera probablement inestimable. Non seulement Tesla sera en mesure de mieux comprendre ce qui s’est mal passé et pourquoi, mais il sera également probablement en mesure de se défendre si la NHTSA ou une autre agence lance de futures enquêtes sur sa technologie.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)