最新の Tesla FSD 12.5 アップデートが一般に公開される一方で、2 つの主要なビジネス出版物が Tesla の運転支援システムに関する否定的な記事を掲載しました。
ブルームバーグの記事は、顧客へのメモの中でテスラのFSDデモ走行中の体験を詳しく述べたセルサイドアナリストの逸話的証拠を引用している。彼は、交通警察官の手信号に従うなど、特殊な状況で何度か介入しなければならなかったが、よりありふれたシナリオでも介入しなければならなかった。
例えば、テスラ モデル Y は、途切れることのない車線区分線を繰り返し横切ったり、交差点に猛スピードで進入したりしました。これは、他の車が右折の途中にあるという状況をコンピューターが誤って読み取ったためです。ただし、モデル Y は FSD 12.3.6 で動作しており、アナリストは、今年初めにテストした以前のバージョンと比較して、いくつかの顕著な改善が見られたことに気づきました。
しかし、テスラの自動運転車の野心に関するもう一つの否定的な記事は、はるかに深刻な告発を提起しており、独占的な証拠で埋め尽くされています。ウォール・ストリート・ジャーナルの調査員は回収されたテスラからFSDコンピューターを調達し、オートパイロットの生データを抽出するためにハッカーに送った。
テスラは、この種のデータを企業秘密としており、それ以外の場合は、ドライバー支援アルゴリズムが数台のテスラ ビジョン カメラの入力の解釈のみに依存しているため、その運転支援アルゴリズムがどのように考え、その場で反応するかを示すものであるためです。
生のオートパイロットの意思決定データ取得からの学習は、テスラ車のカメラからの事故映像と組み合わせられました。 WSJはまた、NHTSAが独自の事故調査のために維持している事故に関する連邦データベースと各州の報告書を照合し、222件のテスラ事故を再現することに成功した。
そのうち 44 件の事故は、オートパイロットを使用したテスラ車が「突然方向転換」したときに発生し、31 件は車両が「停止または方向転換に失敗した」ときに発生しました。調査の結果、オートパイロットで運転中のテスラでは後者が最も重大な事故を引き起こしたことが判明した。
そのような衝突の映像とオートパイロットシステムがアルゴリズム的に動作する様子を見た専門家らは、路上で起こるすべてのことをオートパイロットシステムに訓練するには時間がかかるだろうと述べた。たとえば、死亡事故の1つは、高速道路をふさいで横転したダブルトレーラーを認識できなかったことによるものでした。
システムはこれが何であるかを認識できなかったため、全速力でトレーラーに衝突しました。オートパイロットが緊急車両のライトに惑わされ、衝突する例も数多くあります。
全体として、この調査結果は、自動運転テスラがハードウェアとソフトウェアの両方の理由でクラッシュすることを指摘しています。言及されている問題は、アルゴリズムの更新が遅いことからカメラのキャリブレーションが不十分であることまで多岐にわたります。しかし、今回のオートパイロットのデータ漏洩が、テスラの自動運転機能は最終的には人間の運転者よりも安全であるというイーロン・マスク氏の主要な仮定に異議を唱える前に、独立した情報源からのより詳細な報道が必要になるかもしれない。
80A Tesla Gen 2 壁面コネクタ (24 フィート ケーブル付き) を Amazon で入手してください
以上がハッキングされたテスラ FSD コンピューターにより、致命的なオートパイロット事故に関する憂慮すべき生データが公開されるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。