Partager:

JAKARTA - Des accidents de voiture peuvent se produire en raison de divers facteurs, tels que la confiance excessive dans les fonctions d’aide à la conduite. Cependant, le cas d’une voiture qui ne comprend pas correctement les commandes vocales et éteint les phares alors qu’elle roule n’est certainement pas le scénario que beaucoup de gens imaginent.

C'est ce qui s'est évélé en Chine. Un pilote de Lynk & Co Z20 aurait donné une commande vocale qui a été à l'origine de l'extinction des phares du vehicule alors que le vehicule se mouvait. En résultats, le pilote a affirmé ne pas avoir pu voir la bordure de la route jusqu'à ce que le vehicule l'atteigne.

Tout l’incident a été enregistré par la dashcam. Le système d’assistance vocale à bord de la voiture a apparemment mal interprété une commande naturelle pour éteindre les feux de lecture intérieure comme une instruction pour éteindre toutes les lumières du véhicule, y compris les phares.

Lorsque le propriétaire a essayé de rallumer les lumières par le contrôle vocal, le système a répondu que « l’opération ne pouvait pas être terminée ». Peu de temps après, la voiture a heurté la bordure de la route.

Techniquement, les constructeurs automobiles équipent généralement les véhicules de systèmes de sécurité afin que des fonctions vitales telles que les phares ne puissent pas être facilement désactivées, en particulier lorsque le véhicule est en marche. Cependant, la programmation logicielle présente toujours des lacunes.

Tous les scénarios possibles ne peuvent pas être parfaitement prévus, y compris les erreurs d'interprétation des commandes vocales comme celle-ci. En réponse à l'incident, Lynk & Co a agi rapidement.

Selon Cnevpost, mardi 3 mars, le vice-directeur général de la vente de l’entreprise, Mu Jun, a communiqué par la plate-forme chinoise de médias sociaux Weibo que l’entreprise avait lancé une mise à jour urgente over-the-air (OTA). L’actualisation est censée corriger la logique du système afin que les phares ne puissent pas être éteints de manière inappropriée par le biais de commandes vocales.

Il est interessant de noter que de nombreux rapports indiquent que ce probl̀eme n’est pas seulement potentiellement également sur une marque. Plusieurs propríetaires de vehicules de marques telles que Zeekr et Deepal ont également testé le système d’assistance vocale dans leurs vehicules.

Avec une commande générale comme « éteindre toutes les lumières », certains utilisateurs ont affirmé qu’ils pouvaient toujours éteindre les lumières, y compris celles qui devraient être protégées par le système de sécurité. Pour information, Lynk & Co Z20 est également commercialisé en Europe sous le nom de Lynk & Co 02.

Jusqu'à présent, il n'y a pas de certitude que les unités vendues en dehors du marché chinois sont vulnérables de la même manière, ou si d'autres marques aux États-Unis ont le même trou. Dans la conception de la sécurité des véhicules conventionnels, les systèmes importants tels que l'éclairage sont généralement intégrés et protégés contre les perturbations d'une seule commande.

Au milieu de la transition vers des véhicules de plus en plus intelligents et connectés, des défaillances de logiciels de ce type deviennent un risque difficile à éviter. Heureusement, l’incident n’est pas devenu un problème à grande échelle et a été rapidement résolu par une mise à jour du système.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)