تسلا يتطلب مستخدمي FSD لتقديم أشرطة الفيديو عندما يحدث حادث
تسلا بالتأكيد حصلت على شريط فيديو عندما كانت سيارته المنتج متورطا في حادث تصادم. (الصورة الائتمان : pixabay)

أنشرها:

جاكرتا – تقوم شركة تسلا بطرح أحدث نسخة تجريبية من برنامج القيادة الذاتية الكاملة (FSD) وتسعى للحصول على موافقة السائق لجمع لقطات يمكن التعرف عليها في حالة وقوع حادث.

FSD هو نظام مساعدة السائق بنيت على تكنولوجيا الطيار الآلي تسلا. على الرغم من أن الاسم يشير إلى أن السيارة في السيطرة الكاملة، بل هو في الواقع برنامج شبه مستقل يتطلب من السائق للحفاظ على السيطرة على السيارة في جميع الأوقات.

أطلقت تسلا بيتا FSD كطيار آلي من الدرجة الممتازة في أكتوبر من العام الماضي. قدمت تسلا في البداية برنامجا لاختيار السائقين "الخبراء والدقيقين" ، حيث تتقاضى منهم 10.000 دولار مقابل الامتياز.

ومنذ ذلك الحين جعلت الشركة FSD متاحة لمزيد من السائقين من خلال تقديم اشتراك قدره 199 دولارا أمريكيا شهريا. يحصل مستخدمو FSD على إمكانية الوصول إلى جميع ميزات الطيار الآلي القياسي والطيار الآلي المحسن ، بالإضافة إلى التوجيه التلقائي لشوارع المدينة ، إلى جانب حركة المرور التلقائية والتحكم في علامة التوقف.

تسلا تقول انها لديها المزيد من الميزات المخطط لها وتواصل التكرير على FSD من خلال الافراج عن تحديثات إصدار نقطة العادية لهذه التكنولوجيا.

مع FSD 10.5 ، تطلب تسلا من المستخدمين السماح لها بجمع الفيديو من الكاميرات داخل السيارة وخارجها أثناء الاصطدام. تسلا يتضمن اللغة في اتفاق المستخدم 10.5، ووفقا لElkrek، يجب على العملاء الاتفاق إذا كانوا يريدون استخدام أحدث نسخة من برنامج بيتا.

ويوضح الإشعار أيضا أن المقطع مرتبط برقم تعريف السيارة (VIN)، مما يسمح تسلا لمعرفة على وجه التحديد أي سيارة - ومن المرجح أن يكون السائق - متورطا في الحادث.

من المهم ملاحظة أن تسلا قد سحبت منذ فترة طويلة لقطات وبيانات أخرى من سيارات العملاء ، ولكن تم إخفاء هويتها دائما ولم تكن مرتبطة بسائق محدد. وتقول شركة EV أنها تستخدم هذا الجمع من المعلومات لتحسين أداء وسلامة سياراتها.

ومع ذلك، فمن المحتم أن أي نظام يتفاعل مع الملقم البعيد هو في خطر التعرض للاختراق. يمكن أن ينطبق ذلك على السيارات المتصلة وكذلك أجهزة الكمبيوتر. في الواقع ، أظهر أحد القراصنة الأخلاقيين سابقا كيف يمكن اختراق كاميرات تسلا.

مع هذا في الاعتبار، فإنه من السهل أن نتصور تسلا يفهم المخاطر المرتبطة بجمع لقطات المرتبطة بعض المركبات وأصحابها. ومع ذلك ، تعرضت الشركة مؤخرا للتدقيق بعد أن ادعى سائق أن سيارتهم قامت بمناورات غير منتظمة عندما تم استخدام FSD.

وقد اثار الحادث تحقيقا اجرته الادارة الوطنية الامريكية لسلامة المرور على الطرق السريعة ، وهى وكالة انتقدت من قبل شركات صناعة السيارات لنهجها فى تكنولوجيا القيادة الذاتية .

بالنسبة لتسلا، من المرجح أن تكون قادرة على جمع أدلة بصرية يمكن التعرف عليها لللحظات المحيطة بالحادث لا تقدر بثمن. لن تكون تسلا قادرة على فهم أفضل لما حدث من خطأ ولماذا فحسب ، بل من المرجح أيضا أن تكون في وضع يمكنها من الدفاع عن نفسها إذا بدأت NHTSA أو وكالة أخرى تحقيقات مستقبلية في تقنيتها.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)