Un conducteur de Tesla Model Y a déposé une plainte, affirmant que sa voiture était en mode full self-driving (FSD) lorsqu’elle a heurté un autre véhicule. Alors qu’avec le mode FSD, la collision devrait être évitée, mais en réalité, ce n’est pas le cas.
Malgré son nom, FSD n’est pas un système de conduite vraiment autonome. Au lieu de cela, il s’agit de la dernière itération de Tesla de sa technologie de conduite assistée haut de gamme, construite sur le pilote automatique et les offres de pilote automatique améliorées.
Actuellement disponibles en version bêta, les FSD incluent toutes les fonctionnalités de niveau inférieur, tout en mettant également en avant des fonctionnalités supplémentaires, telles que la direction automatique dans les rues de la ville et la possibilité de s’arrêter seuls aux feux de circulation.
La National Highway Traffic Safety Administration (NHTSA) des États-Unis utilise une échelle de six points pour décrire les véhicules sans conducteur. Le niveau 0 signifie qu’il n’y a pas de fonctionnalités autonomes, tandis que le niveau 5 fait référence à l’automatisation complète où aucun conducteur humain n’est nécessaire pour qu’un véhicule se déplace en toute sécurité sur les routes publiques.
Sur la base de ses fonctionnalités actuelles, FSD est classé au niveau 2, qui est une automatisation partielle. En effet, Tesla oblige tous les utilisateurs de son système autonome à rester au volant tout en conduisant. Ils ne peuvent donc pas s’endormir pendant qu’ils conduisent.
Plus tôt ce mois-ci, à Brea, en Californie, une Tesla Model Y 2021 a été heurtée par un autre véhicule lorsque le conducteur a tourné à gauche. Comme l’a noté The Next Web, une déclaration sur le site Web de la NHTSA a expliqué que le conducteur anonyme a affirmé que sa voiture était en mode FSD et s’est dirigée dans la mauvaise voie pendant le virage.
La personne a déclaré que le modèle Y avait fourni un avertissement au milieu de la manœuvre, mais que leurs tentatives de réparer la piste avaient échoué et que le véhicule avait été heurté du côté du conducteur. Heureusement, aucun blessé n’a été signalé, mais la NHTSA a déclaré qu’elle enquêtait sur l’incident.
L’incident survient après que Tesla a rappelé près de 12 000 voitures le mois dernier en raison de problèmes de FSD.
La société a publié la mise à jour bêta 10.3 de FSD le 23 octobre, mais certains conducteurs ont rapidement découvert des problèmes liés aux fonctions d’avertissement de collision et de freinage d’urgence de leur véhicule.
Tesla a temporairement ramené les utilisateurs aux versions précédentes, avant qu’ils n’émettent les correctifs (mises à jour). Bien sûr, le logiciel de Tesla est explicitement proposé en version bêta, il n’est donc pas clair si la société peut ou sera tenue responsable de l’incident de collision.
Quelles que soient les normes que Tesla détiendra pour sa technologie naissante, elles doivent être prises en charge par les régulateurs. La dernière action de la NHTSA fait suite à une enquête sur une voiture Tesla qui aurait percuté un véhicule d’urgence en mode pilote automatique.
Il convient également de noter qu’il ne s’agit pas de la première enquête liée à la DSE. Le département californien des véhicules à moteur enquête également sur Tesla sur son utilisation de l’expression « conduite entièrement autonome » et si elle comprenait de fausses publicités trompeuses.
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)