Partager:

JAKARTA - Un ancien employé de Tesla s’est entretenu avec le New York Times pour révéler que le constructeur automobile d’Elon Musk pourrait avoir sapé la sécurité dans la conception du système d’aide à la conduite Autopilot pour correspondre à la vision de son directeur général.

« Contrairement à la technologie de presque toutes les autres entreprises travaillant sur des véhicules autonomes, Musk insiste sur le fait que l’autonomie ne peut être atteinte qu’avec des caméras qui suivent leur environnement. Mais de nombreux ingénieurs de Tesla se demandent s’il est suffisamment sûr de compter sur des caméras sans les avantages d’autres, tels que les dispositifs de détection. et si Musk sur-promet aux conducteurs les capacités du pilote automatique », ont réfléchi les auteurs Cade Metz et Neal E. Boudette à l’histoire.

La National Highway Traffic Safety Administration enquête sur Musk « après au moins 12 accidents dans lesquels des voitures Tesla en pilote automatique ont foncé dans des camions de pompiers, des voitures de police et d’autres véhicules d’urgence garés. Ces accidents ont tué une personne et en ont blessé 17 autres.

« La famille de la victime a ensuite poursuivi Tesla pour l’accident mortel, et les clients de Tesla ont poursuivi la société pour avoir déformé Autopilot et une série de services frères appelés Full Self Driving, ou FSD », peut-on lire dans l’article.

« Ce qui m’inquiète, c’est le langage utilisé pour décrire les capacités du véhicule », a déclaré Jennifer Homendy, présidente du Bureau national de la sécurité des transports, citée par Rawstory.com. « Cela peut être très dangereux.

Le matériel a également été interrogé avec des préoccupations soulevées sur des problèmes de sécurité.

« Au sein de Tesla, certains plaident pour l’association de la caméra avec un radar et d’autres capteurs qui fonctionnent mieux sous de fortes pluies et de la neige, en plein soleil et dans d’autres conditions difficiles », rapportent les auteurs.

« Pendant plusieurs années, Autopilot a inclus le radar, et pendant un certain temps, Tesla a développé sa propre technologie radar. Mais les trois personnes travaillant sur le projet ont déclaré que Musk avait dit à plusieurs reprises aux membres de l’équipe Autopilot que les humains ne peuvent conduire qu’avec deux yeux et que cela signifiait que les voitures ne devraient pouvoir conduire qu’avec une caméra », indique le rapport.

Début novembre, Tesla a rappelé près de 12 000 véhicules qui faisaient partie du test bêta FSD de la fonctionnalité, après avoir déployé une mise à jour logicielle qui, selon la société, pourrait provoquer des accidents en raison d’une activation inattendue du système de freinage d’urgence de la voiture, a rapporté le Times.

Schuyler Cullen supervise une équipe explorant les possibilités de la conduite autonome chez le géant sud-coréen de la technologie Samsung, et affirme que l’approche de Musk en matière de caméra uniquement est fondamentalement erronée.

« Les caméras ne sont pas des yeux ! Les pixels ne sont pas des ganglions rétiniens ! Un ordinateur FSD n’a rien à voir avec le cortex visuel ! » a déclaré Cullen.

Le pdg de Mobileye, Amnon Shashua, a déclaré que l’idée de Musk de n’utiliser que des caméras dans les systèmes de conduite autonome pourrait éventuellement fonctionner, mais la technologie n’existe pas encore.

« Il ne faut pas s’accrocher à ce que Tesla a à dire », a déclaré Shashua. « La vérité n’est pas nécessairement leur but ultime. L’objectif final est de créer une entreprise. »


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)