


Durchgängiges autonomes Fahren, multimodales Szenengehirn, neue 3D-Interaktion: Das Großmodell SenseTime Jueying wird auf der Beijing Auto Show vorgestellt
- Shangtang Jueying wird die echte End-to-End-Lösung für autonomes Fahren UniAD für die Massenproduktion zum ersten Mal ins Auto bringen
- SenseTime Jueying erstellt multimodale Modelle mit scharfem Einblick, tiefem Denken und effizienter Ausführungsszene Brain
- „Vision Pro“ mit bloßem Blick auf das Auto, SenseTime Jueying wird die weltweit erste hochpräzise 3D-Sichtlinieninteraktion demonstrieren
Im Jahr 2024 kehrt die Beijing International Automobile Exhibition vom 25. April bis 4. Mai mit einem Paukenschlag zurück . Als erstes Unternehmen der Branche, das ein allgemeines Modell für autonomes Fahren mit integrierter Wahrnehmung und Entscheidungsfindung vorschlägt, wird SenseTime Jueying seine erste On-Car-Demonstration von UniAD vorführen, einer echten End-to-End-Lösung für autonomes Fahren für die Massenproduktion. Gleichzeitig werden auch die AI-Großmodell-Cockpit-Produktmatrix mit dem multimodalen Szenengehirn als Kern und die neue Cockpit-3D-Interaktion angezeigt.
Derzeit wird allgemeine künstliche Intelligenz tief in die Smart-Car-Branche integriert. Basierend auf einer Reihe originaler ökologischer Automodelle, die das Unternehmen durch jahrelange Technologieakkumulation entwickelt hat, wird SenseTime Jueying viele große KI-Modelle für intelligentes Fahren und intelligente Cockpits anbieten Die Produkte und Funktionen der Beijing Auto Show demonstrieren der Öffentlichkeit ein zukünftiges Erlebnis, das flexibel, anpassungsfähig, zutiefst personalisiert, sicher, vertrauenswürdig und menschlich ist. Die Einführung dieser Produkte und Funktionen wird die Entwicklung der Smart-Car-Branche weiter beschleunigen und ein neues Erlebnis im Smart-Travel schaffen.
UniAD, das branchenweit erste universelle Modell für autonomes Fahren mit integrierter Wahrnehmung und EntscheidungsfindungErste Demonstration im Auto
SenseTime und seine Partnerlabore schlugen das branchenweit erste universelle Modell für autonomes Fahren mit integrierter Wahrnehmung und Entscheidungsfindung vor- making, UniAD, und brachte es im Jahr 2023 auf den Markt. Gewann den besten Beitrag auf der International Conference on Computer Vision and Pattern Recognition (CVPR). Dieses Modell führt den Trend zum durchgängigen autonomen Fahren in Wissenschaft und Industrie an und ermöglicht ein reibungsloses durchgängiges autonomes Fahren. In Zukunft wird autonomes Fahren immer beliebter, und die Technologie von SenseTime wird eine wichtige Rolle im Bereich des autonomen Fahrens spielen und die Branche dazu bringen, den Trend des durchgängigen autonomen Fahrens zu verwirklichen.
Vor Kurzem hat Tesla damit begonnen, den Benutzern die FSD V12-Version basierend auf dem End-to-End-Algorithmus anzubieten, was in der Branche große Aufmerksamkeit erregt hat. Auf dieser Beijing Auto Show wird SenseTime auch eine echte End-to-End-Lösung für autonomes Fahren mit integrierter Wahrnehmung und Entscheidungsfindung für die Massenproduktion vorstellen – UniAD – und die Ergebnisse der Demonstration realer Fahrzeuge von UniAD zum ersten Mal der Öffentlichkeit präsentieren .
Mit der kontinuierlichen Weiterentwicklung der autonomen Fahrtechnologie erfordern regelbasierte intelligente Fahrlösungen eine große Menge an Ressourcen, die in Multisensor-Fusionssensoren investiert werden, um komplexe Straßenbedingungen wie ungeschützte Linkskurven und gemischten Verkehr zwischen Personen und Fahrzeugen zu bewältigen. Die SenseTime UniAD-Lösung basiert ausschließlich auf der visuellen Wahrnehmung der Kamera, ohne dass hochpräzise Karten erforderlich sind, und kann durch Datenlernen und Fahren mit der komplexen Umgebung städtischer Gebiete umgehen. Darüber hinaus kann UniAD auch frei auf Landstraßen ohne Mittellinie fahren, die mit herkömmlichen Lösungen schwer zu durchbrechen sind, und eine Reihe schwieriger Vorgänge durchführen, darunter Linkskurven in großem Winkel auf Brücken, das Umfahren von Fahrzeugen und Baustellen, die die Straße blockieren, und rennende Fußgänger umleiten. Wirklich „fahren wie ein Mensch“.
Um die Interpretierbarkeit und Interaktionsmöglichkeiten der End-to-End-Lösung für autonomes Fahren zu verbessern, hat SenseTime auf der Grundlage des multimodalen Großmodells eine neue Generation des Großmodells für autonomes Fahren DriveAGI entwickelt, das auf breitere Szenarien anwendbar ist , höhere Leistung und niedrigere Schwelle. Das Erlebnis ist wahrnehmbar, interaktiv und vertrauenswürdig. DriveAGI, die nächste Generation der autonomen Fahrtechnologie, wird auf der Automesse ebenfalls erstmals vorgestellt.
Shangtang Jueying schafft ein multimodales Szenengehirn mit scharfem Einblick, tiefem Denken und effizienter Ausführung
Das Xiaomi SU7, das in letzter Zeit viel Aufmerksamkeit erregt hat, hat damit begonnen, große KI-Modelle ins Cockpit zu bringen. SenseTime Jueying hat eine KI-Produktmatrix für große Modellcockpits mit einem „multimodalen Szenengehirn“ als Kern erstellt. Durch die Kombination von multimodalen Großmodellen, großen Sprachmodellen, Textgenerierungsmodellen und anderen Funktionen wird dem Smart Cockpit ein leistungsstarkes Umweltverständnis verliehen ., logisches Denken und Fähigkeiten zur Inhaltserstellung.
Das auf SenseTime Jueying installierte große KI-Modell wird in der Lage sein, Restaurants zu empfehlen, die den Vorlieben des Benutzers basierend auf dem geografischen Standort entsprechen, externe Naturlandschaften vorzustellen, an denen der Benutzer interessiert ist, und hochwertige Aussichtspunkte zu empfehlen. Darüber hinaus können Fahrzeuge, die mit der Jueying-Lösung von SenseTime ausgestattet sind, Informationen außerhalb des Fahrzeugs, einschließlich der Modelle umliegender Fahrzeuge, markanter Gebäude usw., über Sprache, Bilder oder Videos genau wahrnehmen und identifizieren Präzisere und umfassendere Inhalte für das Kabinenpersonal und helfen Benutzern, externe Umgebungsinformationen zu verstehen und zu beherrschen.
Mit dem multimodalen Szenengehirn als Kern hat SenseTime Jueying die Massenproduktion einer Reihe von KI-Großmodell-Cockpit-Produkten mit Panoramawahrnehmung, aktiver Pflege und Kreativität vorangetrieben, wie zum Beispiel „Travelling Doctor“, „Magic Pen“, „Mit innovativen Funktionen wie „Child Companion“ wird das Publikum am SenseTime Jueying-Stand ein zutiefst personalisiertes und humanistisches neues Smart-Reiseerlebnis erleben können.
Vision Pro„Steigen Sie mit bloßem Auge ins Auto“, SenseTime Jueyings weltweit erstes 3D-CockpitDie Sichtlinieninteraktion steht kurz vor der Premiere
Im Jahr 2023 ermöglicht das Aufkommen von Apple Vision Pro den Menschen, das zu schätzen Charme der 3D-Interaktion, Business Tang Jueying wird auf der Automesse zwei neue interaktive 3D-Cockpit-Demonstrationen präsentieren, die auf seinen tiefgreifenden technischen Forschungs- und Entwicklungskapazitäten sowie seiner effizienten Innovations- und Iterationseffizienz basieren: 3D Gaze, hochpräzise Sichtlinieninteraktion und dynamische 3D-Geste Interaktion.
Als weltweit erste Smart-Cockpit-Technologie, die über die Blickpositionierung mit Bildschirmsymbolen interagieren kann, ermöglicht die hochpräzise Blickinteraktion 3D Gaze von SenseTime Benutzern die Steuerung zentraler Steuersymbole über ihre Augen. Die dynamische 3D-Gesteninteraktion ist die branchenweit führende Smart-Cockpit-Technologie, die dynamische Gesten und die Erkennung von Handmikrobewegungen unterstützt und es Benutzern ermöglicht, verschiedene Cockpit-Interaktionen „durch die Luft“ durch Gesten durchzuführen.
Die beiden interaktiven 3D-Funktionen von SenseTime Jueying in der Kabine arbeiten zusammen, genau wie „Vision Pro“, um mit bloßem Auge in das Auto einzusteigen und so ein natürliches interaktives Erlebnis für Benutzer zu schaffen, das eher der menschlichen Intuition entspricht.
Während große KI-Modelle mit der Automobilindustrie kollidieren und sich integrieren, wird SenseTime Jueying seine im Laufe der Jahre angesammelten führenden technologischen Vorteile und Produktinnovationskapazitäten voll ausschöpfen und der Smart-Car-Branche weiterhin neue Vitalität von AGI verleihen. Willkommen am SenseTime Jueying-Stand ab dem 25. April, um die zukünftigen Reisemethoden intelligenter Autos im AGI-Zeitalter zu erkunden.
Das obige ist der detaillierte Inhalt vonDurchgängiges autonomes Fahren, multimodales Szenengehirn, neue 3D-Interaktion: Das Großmodell SenseTime Jueying wird auf der Beijing Auto Show vorgestellt. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Am 21. August fand in Peking die Weltroboterkonferenz 2024 im großen Stil statt. Die Heimrobotermarke „Yuanluobot SenseRobot“ von SenseTime hat ihre gesamte Produktfamilie vorgestellt und kürzlich den Yuanluobot AI-Schachspielroboter – Chess Professional Edition (im Folgenden als „Yuanluobot SenseRobot“ bezeichnet) herausgebracht und ist damit der weltweit erste A-Schachroboter für heim. Als drittes schachspielendes Roboterprodukt von Yuanluobo hat der neue Guoxiang-Roboter eine Vielzahl spezieller technischer Verbesserungen und Innovationen in den Bereichen KI und Maschinenbau erfahren und erstmals die Fähigkeit erkannt, dreidimensionale Schachfiguren aufzunehmen B. durch mechanische Klauen an einem Heimroboter, und führen Sie Mensch-Maschine-Funktionen aus, z. B. Schach spielen, jeder spielt Schach, Überprüfung der Notation usw.

Der Schulstart steht vor der Tür und nicht nur die Schüler, die bald ins neue Semester starten, sollten auf sich selbst aufpassen, sondern auch die großen KI-Modelle. Vor einiger Zeit war Reddit voller Internetnutzer, die sich darüber beschwerten, dass Claude faul werde. „Sein Niveau ist stark gesunken, es kommt oft zu Pausen und sogar die Ausgabe wird sehr kurz. In der ersten Woche der Veröffentlichung konnte es ein komplettes 4-seitiges Dokument auf einmal übersetzen, aber jetzt kann es nicht einmal eine halbe Seite ausgeben.“ !

Auf der World Robot Conference in Peking ist die Präsentation humanoider Roboter zum absoluten Mittelpunkt der Szene geworden. Am Stand von Stardust Intelligent führte der KI-Roboterassistent S1 drei große Darbietungen mit Hackbrett, Kampfkunst und Kalligraphie auf Ein Ausstellungsbereich, der sowohl Literatur als auch Kampfkunst umfasst, zog eine große Anzahl von Fachpublikum und Medien an. Durch das elegante Spiel auf den elastischen Saiten demonstriert der S1 eine feine Bedienung und absolute Kontrolle mit Geschwindigkeit, Kraft und Präzision. CCTV News führte einen Sonderbericht über das Nachahmungslernen und die intelligente Steuerung hinter „Kalligraphie“ durch. Firmengründer Lai Jie erklärte, dass hinter den seidenweichen Bewegungen die Hardware-Seite die beste Kraftkontrolle und die menschenähnlichsten Körperindikatoren (Geschwindigkeit, Belastung) anstrebt. usw.), aber auf der KI-Seite werden die realen Bewegungsdaten von Menschen gesammelt, sodass der Roboter stärker werden kann, wenn er auf eine schwierige Situation stößt, und lernen kann, sich schnell weiterzuentwickeln. Und agil

Bei dieser ACL-Konferenz haben die Teilnehmer viel gewonnen. Die sechstägige ACL2024 findet in Bangkok, Thailand, statt. ACL ist die führende internationale Konferenz im Bereich Computerlinguistik und Verarbeitung natürlicher Sprache. Sie wird von der International Association for Computational Linguistics organisiert und findet jährlich statt. ACL steht seit jeher an erster Stelle, wenn es um akademischen Einfluss im Bereich NLP geht, und ist außerdem eine von der CCF-A empfohlene Konferenz. Die diesjährige ACL-Konferenz ist die 62. und hat mehr als 400 innovative Arbeiten im Bereich NLP eingereicht. Gestern Nachmittag gab die Konferenz den besten Vortrag und weitere Auszeichnungen bekannt. Diesmal gibt es 7 Best Paper Awards (zwei davon unveröffentlicht), 1 Best Theme Paper Award und 35 Outstanding Paper Awards. Die Konferenz verlieh außerdem drei Resource Paper Awards (ResourceAward) und einen Social Impact Award (

Tiefe Integration von Vision und Roboterlernen. Wenn zwei Roboterhände reibungslos zusammenarbeiten, um Kleidung zu falten, Tee einzuschenken und Schuhe zu packen, gepaart mit dem humanoiden 1X-Roboter NEO, der in letzter Zeit für Schlagzeilen gesorgt hat, haben Sie vielleicht das Gefühl: Wir scheinen in das Zeitalter der Roboter einzutreten. Tatsächlich sind diese seidigen Bewegungen das Produkt fortschrittlicher Robotertechnologie + exquisitem Rahmendesign + multimodaler großer Modelle. Wir wissen, dass nützliche Roboter oft komplexe und exquisite Interaktionen mit der Umgebung erfordern und die Umgebung als Einschränkungen im räumlichen und zeitlichen Bereich dargestellt werden kann. Wenn Sie beispielsweise möchten, dass ein Roboter Tee einschenkt, muss der Roboter zunächst den Griff der Teekanne ergreifen und sie aufrecht halten, ohne den Tee zu verschütten, und ihn dann sanft bewegen, bis die Öffnung der Kanne mit der Öffnung der Tasse übereinstimmt , und neigen Sie dann die Teekanne in einem bestimmten Winkel. Das

Einleitung zur Konferenz Mit der rasanten Entwicklung von Wissenschaft und Technologie ist künstliche Intelligenz zu einer wichtigen Kraft bei der Förderung des sozialen Fortschritts geworden. In dieser Zeit haben wir das Glück, die Innovation und Anwendung der verteilten künstlichen Intelligenz (DAI) mitzuerleben und daran teilzuhaben. Verteilte Künstliche Intelligenz ist ein wichtiger Zweig des Gebiets der Künstlichen Intelligenz, der in den letzten Jahren immer mehr Aufmerksamkeit erregt hat. Durch die Kombination des leistungsstarken Sprachverständnisses und der Generierungsfähigkeiten großer Modelle sind plötzlich Agenten aufgetaucht, die auf natürlichen Sprachinteraktionen, Wissensbegründung, Aufgabenplanung usw. basieren. AIAgent übernimmt das große Sprachmodell und ist zu einem heißen Thema im aktuellen KI-Kreis geworden. Au

Herausgeber des Machine Power Report: Yang Wen Die Welle der künstlichen Intelligenz, repräsentiert durch große Modelle und AIGC, hat unsere Art zu leben und zu arbeiten still und leise verändert, aber die meisten Menschen wissen immer noch nicht, wie sie sie nutzen sollen. Aus diesem Grund haben wir die Kolumne „KI im Einsatz“ ins Leben gerufen, um detailliert vorzustellen, wie KI durch intuitive, interessante und prägnante Anwendungsfälle für künstliche Intelligenz eingesetzt werden kann, und um das Denken aller anzuregen. Wir heißen Leser auch willkommen, innovative, praktische Anwendungsfälle einzureichen. Oh mein Gott, KI ist wirklich ein Genie geworden. In letzter Zeit ist es zu einem heißen Thema geworden, dass es schwierig ist, die Authentizität von KI-generierten Bildern zu erkennen. (Weitere Informationen finden Sie unter: KI im Einsatz | In drei Schritten zur KI-Schönheit werden und in einer Sekunde von der KI wieder in ihre ursprüngliche Form zurückgeprügelt werden) Neben der beliebten KI von Google Lady im Internet gibt es verschiedene FLUX-Generatoren entstanden auf sozialen Plattformen

Jemand sagte: „Wir hatten Erdbeeren erwartet, aber sie haben Grünkohl herausgebracht.“ Mal sehen, wofür dieser „Grünkohl“ verwendet wird. Die Programmierfähigkeiten großer Modelle haben schon immer große Aufmerksamkeit erregt, und das Auftauchen von Devin, einem übermächtigen KI-Programmierer, hat das Thema „Kann KI Programmierer ersetzen?“ in den Vordergrund gerückt. Kürzlich hat Devin auch einen neuen Gegner ins Spiel gebracht – Genie, einen unabhängigen KI-Programmierer, der vom Start-up-Unternehmen Cosine gegründet wurde. Das Unternehmen gab an, dass Genie Devin deutlich übertraf und im SWE-Benchmark eines Drittanbieters 30 % erreichte, während Devin nur 13,8 % erreichte. Diese SWE-Bench ist ein Tool zur Bewertung von LLM-Lösungen für Gi
