テスラの完全自動運転( FSD )が再び注目を集めている。 2022 年 11 月、サンフランシスコでテスラ モデル 3 の予期せぬ動作により交通事故が発生しました。当初は関係ドライバーの証言しかなかったが、最近になって事件の録音が入手され、電気自動車メーカーの車両が主犯であることが明らかになった。
テスラ モデル 3 の運転手によると、事故当時は完全自動運転が作動していたという。この問題は、前方に障害物がないにもかかわらず、車が完全に停止したときに発生しました。高速道路を走行中、後続車が停止できずに衝突し、当局によると8台が被害を受けた。幸いなことに、負傷者はいたものの、追悼すべき犠牲者は出なかった。
現在、カリフォルニア当局は、関与したテスラの完全な自動運転はベータ 11 であったと説明しています。その後、自動運転のレベル 2で動作していました。これはどういう意味ですか?まあ、自動化は部分的であるため、ドライバーはアクセルを踏んで手動で介入する機会がありましたが、そうしませんでした。
明らかに、ドライバーが完全自動運転を使用していることを示したという事実は、イーロン・マスク率いる同社に対して複数の批判を引き起こした。さらに、当然のことながら、一部の地元メディアは事故を同調し、この状況を利用してテスラの FSD に対する警戒心を煽るような見出しを作りました。彼らは本当に正当化されているのでしょうか?
テスラがまた批判される
ドライバーの発言が100%真実であるかどうかはまだ完全には証明されていないが、テスラの完全自動運転が最近論争に巻き込まれていることは無視できない。もはや、長年にわたりベータ版のままであるという事実だけではなく、乗客を危険にさらすいくつかの異常な行動が報告されているということも事実です。
理由もなくブレーキをかけるという問題は、新しいことではありません。 Electrek は、一般にファントム ブレーキとして知られるこの現象が、オートパイロットを搭載したテスラ車の一部の所有者に影響を及ぼしていると報告しています (FSD をテストしていなくても)。基本的に、オートパイロットは前方の障害物の存在を誤って検出します。衝突が予測されると、自動ブレーキが作動して「衝突」を回避します。
2021年末、テスラ車のファントムブレーキに関する報告が特に米国で大幅に増加した。一部の顧客は解決策を求めて自動車メーカーに問い合わせましたが、同社はソフトウェアのエラーであると述べるにとどめました。したがって、アップデートを通じて修正できる可能性があります。
しかし、サンフランシスコ事故のビデオを見ると、問題は解決されていないことが分かりました。少なくとも全体ではありません。また、交通量の多い道路を走行中にファントムブレーキが発生すると、事故を引き起こす危険性が非常に高いことも明らかです。
カリフォルニア州、「完全自動運転」という名称を禁止
カリフォルニア州は2022年12月、誤解を招く可能性があるため、テスラや運転支援機能を提供するその他の自動車メーカーに対し「完全自動運転」という名称の使用を禁止する法律を可決した。理由は非常に単純です。現在、そのように呼ばれるのに十分な信頼性を備えたソフトウェアは、Tesla のソフトウェアであっても存在しないからです。企業がこれらの規制に違反した場合、それは「誤解を招く広告」とみなされます。
間違いなく、事故の記録は、ファントムブレーキに関する以前の報告とカリフォルニアで承認された新しい法律と相まって、テスラへの圧力を高めています。イーロン・マスク率いる人々は、最も基本的なものから始めてFSDの機能を向上させるためにアクセルを踏む必要がある。
参考資料一覧
- https://electrek.co/2021/11/15/tesla-serious-phantom-braking-problem-autopilot/
