テスラモデルYドライバーは、衝突を避けることができないFSD機能の苦情
テスラモデルYのドライバーは、彼らの車が別の車両にぶつかったときにフル自動運転(FSD)モードにあったと主張して、苦情を申し立てました。一方、FSDモードでは衝突を回避できますが、実際にはそれではありません。
その名前にもかかわらず、FSDは本当に自動運転システムではありません。代わりに、オートパイロットと強化されたオートパイロット製品に基づいて構築されたプレミアムアシスト運転技術のテスラの最新のイテレーションです。
現在ベータ製品として入手可能なFSDには、すべての下位レベルの機能が含まれていますが、街路での自動ステアリングや信号機で停止する機能など、追加機能も約束されています。
米国道路交通安全局(NHTSA)は、無人運転車を記述するために6ポイントスケールを使用しています。レベル 0 は自律的な機能がないことを意味し、レベル 5 は、車両が公道を安全に走行するために人間のドライバーが必要ない完全なオートメーションを指します。
FSD は、現在の機能に基づいて、部分的な自動化であるレベル 2 に分類されます。確かに、テスラは、自律システムのすべてのユーザーに運転中にハンドルにとどまるよう義務付けています。だから、彼らは運転している間に眠ることができません。
今月初め、カリフォルニア州ブレアで、2021年のテスラモデルYは、運転手が左に曲がったときに別の車両にはねられた。ネクストウェブが指摘したように、NHTSAのウェブサイト上の声明は、無名のドライバーが自分の車がFSDモードにあり、ターン中に間違った車線に操縦されたと主張したと説明しました。
人物は、モデルYが操縦の途中で警告を提供したが、トラックを修正する彼らの試みは失敗し、車両が運転席側にぶつかったと言いました。幸いなことに、負傷者は報告されていないが、NHTSAは事件を調査していると言いました。
この事件は、テスラが先月、FSDの問題で12,000台近くの車をリコールした後に起こった。
同社は10月23日にFSDベータ10.3アップデートをリリースしたが、一部のドライバーはすぐに車両の衝突警告と緊急ブレーキ機能に関連する問題を発見した。
Tesla は、パッチ (更新プログラム) を発行する前に、ユーザーを以前のバージョンに一時的にロールバックしました。もちろん、テスラのソフトウェアはベータ版として明示的に提供されているので、同社が衝突事故の責任を負うことができるかどうかは不明です。
テスラが新技術に関する基準が何であれ、規制当局に注意を要する必要がある。NHTSAの最新のアクションは、オートパイロットモード中に緊急車両に衝突したと伝えられているテスラ車の調査に続きます。
また、これはFSDに関連する最初の調査ではないことを指摘する必要があります。カリフォルニア州自動車局はまた、「完全な自動運転」というフレーズの使用と誤解を招く虚偽の広告が含まれているかどうかについて、テスラを調査しています。