


Pourquoi certains grands constructeurs automobiles repensent-ils leurs investissements dans la conduite autonome ?
Il y a encore quelques mois, la conduite autonome était l'un des thèmes d'investissement les plus en vogue. Cependant, de nombreux grands constructeurs automobiles, dont Ford, ont récemment reconsidéré leurs investissements dans les entreprises autonomes, et d'autres sociétés comme Alphabet sont confrontées à des pressions financières pour réduire leurs dépenses dans les entreprises autonomes.
Uber a été la première à céder son activité de conduite autonome
Uber a été l'une des premières entreprises à abandonner son activité de conduite autonome et a vendu l'entreprise à la startup de conduite autonome Aurora Innovation en 2020. En échange, Uber a reçu une participation majoritaire dans l'entreprise.
Aurora Innovation est devenue publique via une fusion inversée SPAC, et le cours actuel de l'action est inférieur à 2 $ par action. Selon certaines informations, Uber aurait subi d'énormes pertes sur ses investissements dans des sociétés telles que Aurora, Grab et Zomato.
Aurora Innovation est un développeur d'affaires purement spécialisé dans la conduite autonome, et la chute du cours de ses actions rappelle le pessimisme des investisseurs à l'égard du secteur. De plus, certaines entreprises reconsidèrent également leurs investissements dans la conduite autonome.
Ford se retire du secteur des véhicules autonomes
Le mois dernier, la start-up autonome Argo AI, une coentreprise entre Ford et Volkswagen, s'est effondrée. Ford a annulé son investissement dans l'entreprise, marquant ainsi le fait que de grands constructeurs automobiles sont en train de le faire. également intéressé par la conduite autonome.
Ford a déclaré qu'Argo AI n'avait pas attiré de nouveaux investisseurs. Ford a également annoncé qu'il ne se concentrerait pas sur le développement de systèmes de conduite autonome L4. Le PDG de l'entreprise a déclaré que même si certains investisseurs ont investi un total de 100 milliards de dollars dans la technologie de conduite autonome L4, aucune entreprise n'a encore été en mesure de déterminer un modèle commercial rentable.
Lors d'une conférence téléphonique sur les résultats, Doug Field, directeur du développement de produits et de technologies avancés chez Ford, a déclaré : « La commercialisation à grande échelle de la conduite autonome L4 prendra beaucoup plus de temps que prévu. Les technologies d'aide à la conduite L2+ et L3 auront un plus grand client adressable. sa base lui permettra d'évoluer plus rapidement et de devenir rentable. »
Et le directeur financier de Ford, John Lawler, a déclaré que l'entreprise ne voyait pas la nécessité de développer sa propre technologie de conduite autonome.
La conduite autonome d'Alphabet est confrontée à une pression de perte
Alphabet possède sa filiale de conduite autonome Waymo, qui fait face à la pression des actionnaires pour la remettre en question en raison de pertes croissantes. TCI Fund Management, qui détient environ 6 milliards de dollars d'actions Alphabet, a envoyé une lettre à la direction d'Alphabet appelant à réduire les pertes de Waymo.
TCI a déclaré dans la lettre : "Malheureusement, les gens ont perdu leur enthousiasme pour la conduite autonome et les concurrents se sont également retirés du marché." TCI a également mentionné dans la lettre le fait que Volkswagen et Ford se sont retirés de cette activité.
Par coïncidence, Nuro, une startup autonome soutenue par Alphabet, Tiger Global et SoftBank, a récemment annoncé qu'elle licencierait un cinquième de ses effectifs dans le but d'économiser de l'argent tout en investissant sur le long terme.
GM a déclaré que les voitures ne se retireraient pas du marché de la conduite autonome
Les initiés de l'industrie ont également souligné que la situation sur le marché de la conduite autonome n'est pas sombre et que certaines entreprises continuent d'investir dans la conduite autonome. General Motors, par exemple, a déclaré qu'elle ne renoncerait pas à ses investissements dans l'entreprise. La société possède Cruise, une société qui développe des activités de conduite autonome, et a reçu un investissement de Microsoft l'année dernière.
Mary Barra, PDG de General Motors, a déclaré : "Nous sommes la seule entreprise de voitures autonomes prête à se lancer et à générer des revenus sur trois marchés."
Barra a exprimé son optimisme quant au développement de l'activité de conduite autonome de General Motors. "Lorsque nous pensons à la force de l'entreprise et à ce que nous avons construit, nous pensons que nous pouvons réinvestir dans le secteur des véhicules autonomes car nous voyons une formidable opportunité", a-t-elle déclaré.
GM a également levé des fonds pour 2022. Il fournit des indications sur les flux. et s'attend à ce que son activité de véhicules électriques devienne rentable en 2025.
Tesla considère les logiciels comme le principal moteur de son activité
Tesla considère la conduite autonome comme un moteur clé de la croissance de son activité. L'entreprise a ajusté le prix de son système de conduite entièrement autonome (FSD) à deux reprises cette année, le portant désormais à 15 000 dollars.
Les initiés du secteur affirment qu'étant donné la détérioration de l'environnement macroéconomique, de nombreuses entreprises de conduite autonome sont confrontées à des pressions pour lever des fonds. Comme l’activité en est encore à ses balbutiements, de nombreuses entreprises continueront probablement à enregistrer des pertes dans les années à venir. Aujourd’hui, avec la Réserve fédérale qui augmente agressivement les taux d’intérêt, peu d’investisseurs souhaitent financer des entreprises déficitaires comme les voitures autonomes.
D'une part, il y a un investissement « longue distance » et énorme dans la conduite autonome, et d'autre part, il y a un environnement économique atone. Selon vous, quelle sera l'orientation future de la conduite autonome ?
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Écrit ci-dessus et compréhension personnelle de l'auteur Le Gaussiansplatting tridimensionnel (3DGS) est une technologie transformatrice qui a émergé dans les domaines des champs de rayonnement explicites et de l'infographie ces dernières années. Cette méthode innovante se caractérise par l’utilisation de millions de gaussiennes 3D, ce qui est très différent de la méthode du champ de rayonnement neuronal (NeRF), qui utilise principalement un modèle implicite basé sur les coordonnées pour mapper les coordonnées spatiales aux valeurs des pixels. Avec sa représentation explicite de scènes et ses algorithmes de rendu différenciables, 3DGS garantit non seulement des capacités de rendu en temps réel, mais introduit également un niveau de contrôle et d'édition de scène sans précédent. Cela positionne 3DGS comme un révolutionnaire potentiel pour la reconstruction et la représentation 3D de nouvelle génération. À cette fin, nous fournissons pour la première fois un aperçu systématique des derniers développements et préoccupations dans le domaine du 3DGS.

Hier, lors de l'entretien, on m'a demandé si j'avais posé des questions à longue traîne, j'ai donc pensé faire un bref résumé. Le problème à longue traîne de la conduite autonome fait référence aux cas extrêmes dans les véhicules autonomes, c'est-à-dire à des scénarios possibles avec une faible probabilité d'occurrence. Le problème perçu de la longue traîne est l’une des principales raisons limitant actuellement le domaine de conception opérationnelle des véhicules autonomes intelligents à véhicule unique. L'architecture sous-jacente et la plupart des problèmes techniques de la conduite autonome ont été résolus, et les 5 % restants des problèmes à longue traîne sont progressivement devenus la clé pour restreindre le développement de la conduite autonome. Ces problèmes incluent une variété de scénarios fragmentés, de situations extrêmes et de comportements humains imprévisibles. La « longue traîne » des scénarios limites dans la conduite autonome fait référence aux cas limites dans les véhicules autonomes (VA). Les cas limites sont des scénarios possibles avec une faible probabilité d'occurrence. ces événements rares

0. Écrit à l'avant&& Compréhension personnelle que les systèmes de conduite autonome s'appuient sur des technologies avancées de perception, de prise de décision et de contrôle, en utilisant divers capteurs (tels que caméras, lidar, radar, etc.) pour percevoir l'environnement et en utilisant des algorithmes et des modèles pour une analyse et une prise de décision en temps réel. Cela permet aux véhicules de reconnaître les panneaux de signalisation, de détecter et de suivre d'autres véhicules, de prédire le comportement des piétons, etc., permettant ainsi de fonctionner en toute sécurité et de s'adapter à des environnements de circulation complexes. Cette technologie attire actuellement une grande attention et est considérée comme un domaine de développement important pour l'avenir des transports. . un. Mais ce qui rend la conduite autonome difficile, c'est de trouver comment faire comprendre à la voiture ce qui se passe autour d'elle. Cela nécessite que l'algorithme de détection d'objets tridimensionnels du système de conduite autonome puisse percevoir et décrire avec précision les objets dans l'environnement, y compris leur emplacement,

Le premier article pilote et clé présente principalement plusieurs systèmes de coordonnées couramment utilisés dans la technologie de conduite autonome, et comment compléter la corrélation et la conversion entre eux, et enfin construire un modèle d'environnement unifié. L'objectif ici est de comprendre la conversion du véhicule en corps rigide de caméra (paramètres externes), la conversion de caméra en image (paramètres internes) et la conversion d'image en unité de pixel. La conversion de 3D en 2D aura une distorsion, une traduction, etc. Points clés : Le système de coordonnées du véhicule et le système de coordonnées du corps de la caméra doivent être réécrits : le système de coordonnées planes et le système de coordonnées des pixels Difficulté : la distorsion de l'image doit être prise en compte. La dé-distorsion et l'ajout de distorsion sont compensés sur le plan de l'image. 2. Introduction Il existe quatre systèmes de vision au total : système de coordonnées du plan de pixels (u, v), système de coordonnées d'image (x, y), système de coordonnées de caméra () et système de coordonnées mondiales (). Il existe une relation entre chaque système de coordonnées,

La prédiction de trajectoire joue un rôle important dans la conduite autonome. La prédiction de trajectoire de conduite autonome fait référence à la prédiction de la trajectoire de conduite future du véhicule en analysant diverses données pendant le processus de conduite du véhicule. En tant que module central de la conduite autonome, la qualité de la prédiction de trajectoire est cruciale pour le contrôle de la planification en aval. La tâche de prédiction de trajectoire dispose d'une riche pile technologique et nécessite une connaissance de la perception dynamique/statique de la conduite autonome, des cartes de haute précision, des lignes de voie, des compétences en architecture de réseau neuronal (CNN&GNN&Transformer), etc. Il est très difficile de démarrer ! De nombreux fans espèrent se lancer dans la prédiction de trajectoire le plus tôt possible et éviter les pièges. Aujourd'hui, je vais faire le point sur quelques problèmes courants et des méthodes d'apprentissage introductives pour la prédiction de trajectoire ! Connaissances introductives 1. Existe-t-il un ordre d'entrée pour les épreuves de prévisualisation ? R : Regardez d’abord l’enquête, p

Titre original : SIMPL : ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving Lien article : https://arxiv.org/pdf/2402.02519.pdf Lien code : https://github.com/HKUST-Aerial-Robotics/SIMPL Affiliation de l'auteur : Université des sciences de Hong Kong et technologie Idée DJI Paper : cet article propose une base de référence de prédiction de mouvement (SIMPL) simple et efficace pour les véhicules autonomes. Par rapport au cent agent traditionnel

Écrit à l'avant et point de départ Le paradigme de bout en bout utilise un cadre unifié pour réaliser plusieurs tâches dans les systèmes de conduite autonome. Malgré la simplicité et la clarté de ce paradigme, les performances des méthodes de conduite autonome de bout en bout sur les sous-tâches sont encore loin derrière les méthodes à tâche unique. Dans le même temps, les fonctionnalités de vue à vol d'oiseau (BEV) denses, largement utilisées dans les méthodes de bout en bout précédentes, rendent difficile l'adaptation à davantage de modalités ou de tâches. Un paradigme de conduite autonome de bout en bout (SparseAD) centré sur la recherche clairsemée est proposé ici, dans lequel la recherche clairsemée représente entièrement l'ensemble du scénario de conduite, y compris l'espace, le temps et les tâches, sans aucune représentation BEV dense. Plus précisément, une architecture clairsemée unifiée est conçue pour la connaissance des tâches, notamment la détection, le suivi et la cartographie en ligne. De plus, lourd

Au cours du mois dernier, pour des raisons bien connues, j'ai eu des échanges très intensifs avec divers professeurs et camarades de classe du secteur. Un sujet inévitable dans l'échange est naturellement le populaire Tesla FSDV12 de bout en bout. Je voudrais profiter de cette occasion pour trier certaines de mes pensées et opinions en ce moment pour votre référence et votre discussion. Comment définir un système de conduite autonome de bout en bout et quels problèmes devraient être résolus de bout en bout ? Selon la définition la plus traditionnelle, un système de bout en bout fait référence à un système qui saisit les informations brutes des capteurs et génère directement les variables pertinentes pour la tâche. Par exemple, en reconnaissance d'images, CNN peut être appelé de bout en bout par rapport à la méthode traditionnelle d'extraction de caractéristiques + classificateur. Dans les tâches de conduite autonome, saisir les données de divers capteurs (caméra/LiDAR
