Alors que la dernière mise à jour de Tesla FSD 12.5 est déployée auprès du public, deux publications économiques majeures ont publié des articles négatifs sur les systèmes d'aide à la conduite de Tesla.
Celui de Bloomberg cite des preuves anecdotiques d'un analyste côté vente qui a détaillé son expérience lors des démonstrations de Tesla FSD dans une note aux clients. Il a dû intervenir à plusieurs reprises dans des situations particulières, comme obéir aux signaux manuels d'un agent de la circulation, mais aussi dans des scénarios plus banals.
La Tesla Model Y a traversé à plusieurs reprises des marquages de voie ininterrompus, par exemple, ou s'est précipitée dans une intersection parce que l'ordinateur a mal interprété une situation où une autre voiture n'était qu'à mi-chemin dans un virage à droite. Le modèle Y roulait cependant sur FSD 12.3.6, et l'analyste a noté des améliorations marquées par rapport à la version précédente qu'ils ont testée plus tôt cette année.
L'autre article négatif sur les ambitions de Tesla en matière de véhicules autonomes formule cependant des accusations beaucoup plus graves et regorge de preuves exclusives. Les enquêteurs du Wall Street Journal ont récupéré des ordinateurs FSD provenant de Tesla récupérées et les ont envoyés à des pirates informatiques pour extraire les données brutes du pilote automatique.
Tesla garde ce type de données comme secret commercial, car elles montrent comment ses algorithmes d'aide à la conduite pensent et réagissent à la volée, car ils s'appuient uniquement sur l'interprétation des entrées de quelques caméras Tesla Vision.
Les enseignements tirés de la saisie des données brutes de prise de décision du pilote automatique ont ensuite été associés aux images d'accidents des caméras des voitures Tesla. Le WSJ a également comparé les rapports de chaque État avec la base de données fédérale sur les accidents que la NHTSA maintient pour sa propre enquête sur les accidents, et a réussi à reconstituer 222 accidents de Tesla.
Dans 44 d'entre eux, les accidents se sont produits lorsque les voitures Tesla sur pilote automatique « ont viré soudainement », tandis que 31 se sont produits lorsque les véhicules « n'ont pas réussi à s'arrêter ou à céder ». L’enquête a révélé que ces derniers ont conduit aux accidents les plus graves, avec des Tesla conduites en pilote automatique.
Les experts, qui ont vu les images de tels accidents et la manière dont le système Autopilot fonctionne de manière algorithmique, ont déclaré qu'il faudrait du temps pour l'entraîner à tout ce qui se passe sur les routes. L'un des accidents mortels, par exemple, était dû à l'incapacité de reconnaître une double remorque renversée bloquant la route.
Le système ne savait pas ce que c'était, alors il s'est écrasé à toute vitesse sur la remorque. Il existe de nombreux exemples où le pilote automatique se laisse embarrasser par les lumières des véhicules d'urgence et s'y heurte également.
Dans l’ensemble, les résultats soulignent que les Teslas autonomes s’écrasent pour des raisons matérielles et logicielles. Les problèmes mentionnés vont de la lenteur des mises à jour des algorithmes à un calibrage insuffisant de la caméra. Cependant, une couverture plus approfondie provenant de sources indépendantes pourrait être nécessaire avant que cette fuite de données du pilote automatique ne parvienne à remettre en question l'hypothèse principale d'Elon Musk, selon laquelle la fonction de conduite autonome de Tesla est en fin de compte plus sûre que les conducteurs humains.
Obtenez le connecteur mural Tesla Gen 2 80A avec câble de 24' sur Amazon
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!