


Entwicklertool! XREAL Air 2 ULTRA kommt zum Verkauf, ein immersives Erlebnis der KI-Entwicklung
Am 31. Juli um 14:00 Uhr Pekinger Zeit wurde das neueste Mitglied der XREAL-Serie von AR-Brillen, XREAL Air 2 Ultra, offiziell in China eingeführt. Es ist derzeit auf JD.com, Tmall, Douyin und anderen Plattformen verfügbar , mit einem Einstiegspreis von 3.999 Yuan.
Diese AR-Brille ist ein Flaggschiffprodukt, das sich hauptsächlich an die Entwicklergemeinschaft richtet. Sie zielt darauf ab, die Schwelle für Entwickler zum Einstieg in die räumliche Datenverarbeitung zu senken, Innovationen im Bereich der räumlichen Datenverarbeitung zu fördern und ein florierenderes AR-Ökosystem zu schaffen.
Befähigen Sie Entwickler mit sechs Kernfunktionen
Als zweite 6-DoF-Brille (Six Degrees of Freedom, sechs Freiheitsgrade) von XREAL ist XREAL Air 2 Ultra auch die einzige in der Branche, die ein duales Umgebungsbewusstsein nutzt Sensoren (SLAM) Kamera), um leichte AR-Geräte für räumliches Computing zu implementieren. Ausgestattet mit Dual-Umgebungssensor-Hardware + Software-SDK unterstützt es hochpräzise und latenzarme räumliche 6DoF-Positionierung und Gesteninteraktion, was bedeutet, dass das interaktive AR-Erlebnis in eine neue Phase eingetreten ist.
Die 6DoF-Technologie ist ein wichtiger Teil der Neugestaltung des immersiven AR-Erlebnisses und spielt eine Schlüsselrolle in Augmented-Reality-Brillen (AR). Sie bietet umfassende räumliche Wahrnehmungsmöglichkeiten und ermöglicht es Benutzern, sich frei zwischen virtueller und realer Realität zu bewegen. pendeln. Diese Technologie nutzt zwei Umgebungserkennungssensoren, die sich auf beiden Seiten des XREAL Air 2 Ultra befinden, um Merkmalspunkte zu identifizieren und deren Bewegung im Zeitverlauf zu überwachen, wie im Kamerabild gezeigt. Durch die Kombination der Bewegung dieser Punkte mit den IMU-Sensordaten der Brille kann NRSDK die Position und Ausrichtung der Brille während der räumlichen Navigation genau verfolgen. 6DoF-Tracking erstellt nicht nur Karten in Echtzeit, sondern integriert auch räumliche Anker, um Entwicklern detaillierte Informationen über die physischen Strukturen in der Umgebung bereitzustellen und so die Anwendungsfunktionalität zu verbessern.
Zusätzlich zur 6DoF-Bewegungsverfolgung verbessert die neueste Software NRSDK von Besonders hervorzuheben ist die „Hand-Tracking“-Funktion von NRSDK, die nicht nur die Position wichtiger Punkte der Hand stabil verfolgt, sondern auch eine nahtlose Echtzeiterkennung von Gesten durchführt. Die erkannten Handgesten werden intuitiv aus der Ego-Perspektive dargestellt und ermöglichen Entwicklern eine intuitive, natürliche und immersive Interaktion mit virtuellen Objekten in der realen Welt.
Wenn man genauer hinschaut, verfügt NRSDK neben 6DoF-Bewegungsverfolgung und Gesteninteraktion auch über mehrere Kernfunktionen wie Ebenenerkennung, Bilderkennung, Tiefenraster, räumliche Ankerpunkte usw., die alle durch die Hardwarefunktionen von Ultra realisiert werden können und das Hardware-Potenzial der Brille voll ausgeschöpft.
Durch die Fusion von Computer Vision und fortschrittlichen Algorithmen kann die Ebenenerkennungsfunktion von NRSDK horizontale und vertikale Ebenen in Echtzeit genau identifizieren, Umgebungsmerkmale genau erfassen und verfolgen sowie genaue und dynamische dreidimensionale Raumkarten für Entwickler zeichnen. Entwickler können diese Funktion verwenden, um 3D-Objekte auf Oberflächen zu positionieren, benutzerdefinierte Szenen zu erstellen und interaktive 3D-Szenen basierend auf spezifischen Anforderungen zu erstellen.
Tiefennetz ist auch eine von NRSDK bereitgestellte Kernfunktion, mit der in Echtzeit dreieckige Netzflächen mit semantischen Beschriftungen generiert werden können. Beim Umgang mit virtuellen Inhalten spielt dieses Netz eine Schlüsselrolle beim Echtzeit-Okklusions-Rendering und der Kollisionserkennung, wodurch virtuelle Inhalte besser in die reale Umgebung integriert werden. Im Gegensatz zur Ebenenerkennung sind Tiefennetze in der Lage, eine Vielzahl komplexer Oberflächen zu erkennen, zu rekonstruieren und mit ihnen zu interagieren, was eine größere Vielseitigkeit darstellt.
Mit der Bildverfolgungsfunktion kann NRSDK auch bestimmte Bilder identifizieren und verfolgen, sodass digitale Objekte eine räumliche Verbindung mit Objekten in der realen Welt herstellen können, was die Möglichkeiten von AR-Anwendungen erheblich erweitert. NRSDK kann beispielsweise ein Gemälde an der Wand oder ein Buch auf dem Tisch erkennen und auch bewegte Bilder wie rotierende Werbetafeln oder von Fußgängern gehaltene Plakate verfolgen. Diese Bildverfolgungsfunktion kann Entwicklern dabei helfen, die Anzeige virtueller Inhalte auf der Grundlage von Bildobjekten in der natürlichen Umgebung zu realisieren und praktische AR-Lösungen für viele Bereiche wie Werbung, Bildung und Unterhaltung bereitzustellen.
Räumlicher Ankerpunkt ist eine wichtige AR-Funktion. Diesmal stellt NRSDK die räumliche Ankerpunktfunktion für XREAL-Brillen bereit und führt einen gemeinsamen Ankerpunktmechanismus ein, sodass verschiedene Benutzer mit denselben virtuellen Objekten interagieren können, die in der realen Welt verankert sind Szenarien eröffnen neue Möglichkeiten. Entwickler können außerdem problemlos räumliche Ankerpunkte in Unity-Projekten erstellen und verwalten und die präzise Positionierung und Beständigkeit virtueller Objekte im physischen Raum sicherstellen.
Es zeigt sich, dass die Ultra-Brille mit ihrer hervorragenden Hardwareleistung und der engen Integration der NRSDK-Softwarefunktionen Entwicklern einen schnellen Weg zu einem umfassenden und immersiven AR-Erlebnis ebnet. Auch weil sie eine große Anzahl der oben genannten Spatial-Computing-Technologien unterstützt, richten sich Ultra-Brillen nicht nur an Entwickler, sondern auch an Pionieranwender, die das ultimative AR-Erlebnis anstreben, sowie an den Unternehmensmarkt, der bereits über AR-Anwendungsszenarien verfügt Es kann eine Plattform für alle Lebensbereiche werden, um die AR-Welt zu erkunden.
Für Pionier-AR-Benutzer, die das ultimative Erlebnis anstreben, bietet Air 2 Ultra ein erstklassiges räumliches Computererlebnis. Air 2 Ultra ist das erste Modell der Branche, das über einen Rahmen aus Titanlegierung verfügt, der nicht nur das Gewicht weiter reduziert und die strukturelle Festigkeit verbessert, sondern auch optisch ein starkes Gefühl von High-End-Technologie vermittelt. Was die Anzeige angeht, hat Air 2 Ultra das FoV (Sichtfeld) dieses Mal auf 52° erhöht und damit die entsprechende 4-Meter-Projektionsfläche von 130 Zoll auf Air 2 auf 154 Zoll vergrößert, mit besserer Kantenschärfe Sichtfeld breiter und immersiver.
Bei Verwendung mit Beam Pro kann Air 2 Ultra auch das in der AR-Branche einzigartige 6DoF-Schweberaum-Seherlebnis erreichen. Der virtuelle Riesenbildschirm fühlt sich an, als ob er tatsächlich in der realen Welt existiert, und hat das gleiche reale Aussehen und Gefühl wie der physisches Anzeigegerät. Es wird berichtet, dass Air 2 Ultra in Zukunft auch produktive Gestenfunktionen für Benutzer einführen und als Interaktionsmethode auf Systemebene dienen wird. Die Kombination aus Ultra+Beam Pro kann als exklusives integriertes Entwicklungskit von XREAL für die Zukunft von AR angesehen werden.
Ob es sich um Beam Pro oder XREAL Air 2 Ultra handelt, im Vergleich zu High-End-Konkurrenzprodukten wie Apple Vision Pro bieten die neuen Spatial-Computing-Produkte von XREAL eine hohe Leistung und bieten gleichzeitig wettbewerbsfähigere Preise eine kostengünstige Wahl und demonstriert die ultimative Vision von XREAL, die Popularisierung der AR-Technologie voranzutreiben.
Als praktisches Produkt, das das Metaversum von abstrakten Konzepten zur Realität führt, sind AR-Brillen zum Fokus in- und ausländischer Technologiekreise geworden. Während Apple, Google, Meta und andere Giganten alle ihre eigenen Wege gehen, um sich in der nächsten Generation von Spatial-Computing-Portalen zu vereinen, stand XREAL in nur sieben Jahren an der Spitze des globalen AR-Brillenmarktes und erreichte die Nr. 1-Position in Mit beispiellosen Erfolgen und als absoluter Innovator auf diesem Gebiet streben wir danach, die Gegenwart des räumlichen Computings zu definieren.
Das obige ist der detaillierte Inhalt vonEntwicklertool! XREAL Air 2 ULTRA kommt zum Verkauf, ein immersives Erlebnis der KI-Entwicklung. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen











Kimi: In nur einem Satz, in nur zehn Sekunden ist ein PPT fertig. PPT ist so nervig! Um ein Meeting abzuhalten, benötigen Sie einen PPT; um einen wöchentlichen Bericht zu schreiben, müssen Sie einen PPT vorlegen, auch wenn Sie jemanden des Betrugs beschuldigen PPT. Das College ähnelt eher dem Studium eines PPT-Hauptfachs. Man schaut sich PPT im Unterricht an und macht PPT nach dem Unterricht. Als Dennis Austin vor 37 Jahren PPT erfand, hatte er vielleicht nicht damit gerechnet, dass PPT eines Tages so weit verbreitet sein würde. Wenn wir über unsere harte Erfahrung bei der Erstellung von PPT sprechen, treiben uns Tränen in die Augen. „Es dauerte drei Monate, ein PPT mit mehr als 20 Seiten zu erstellen, und ich habe es Dutzende Male überarbeitet. Als ich das PPT sah, musste ich mich übergeben.“ war PPT.“ Wenn Sie ein spontanes Meeting haben, sollten Sie es tun

Diffusion kann nicht nur besser imitieren, sondern auch „erschaffen“. Das Diffusionsmodell (DiffusionModel) ist ein Bilderzeugungsmodell. Im Vergleich zu bekannten Algorithmen wie GAN und VAE im Bereich der KI verfolgt das Diffusionsmodell einen anderen Ansatz. Seine Hauptidee besteht darin, dem Bild zunächst Rauschen hinzuzufügen und es dann schrittweise zu entrauschen. Das Entrauschen und Wiederherstellen des Originalbilds ist der Kernbestandteil des Algorithmus. Der endgültige Algorithmus ist in der Lage, aus einem zufälligen verrauschten Bild ein Bild zu erzeugen. In den letzten Jahren hat das phänomenale Wachstum der generativen KI viele spannende Anwendungen in der Text-zu-Bild-Generierung, Videogenerierung und mehr ermöglicht. Das Grundprinzip dieser generativen Werkzeuge ist das Konzept der Diffusion, ein spezieller Sampling-Mechanismus, der die Einschränkungen bisheriger Methoden überwindet.

Am frühen Morgen des 20. Juni (Pekinger Zeit) gab CVPR2024, die wichtigste internationale Computer-Vision-Konferenz in Seattle, offiziell die besten Beiträge und andere Auszeichnungen bekannt. In diesem Jahr wurden insgesamt 10 Arbeiten ausgezeichnet, darunter zwei beste Arbeiten und zwei beste studentische Arbeiten. Darüber hinaus gab es zwei Nominierungen für die beste Arbeit und vier Nominierungen für die beste studentische Arbeit. Die Top-Konferenz im Bereich Computer Vision (CV) ist die CVPR, die jedes Jahr zahlreiche Forschungseinrichtungen und Universitäten anzieht. Laut Statistik wurden in diesem Jahr insgesamt 11.532 Arbeiten eingereicht, von denen 2.719 angenommen wurden, was einer Annahmequote von 23,6 % entspricht. Laut der statistischen Analyse der CVPR2024-Daten des Georgia Institute of Technology befassen sich die meisten Arbeiten aus Sicht der Forschungsthemen mit der Bild- und Videosynthese und -generierung (Imageandvideosyn

Wir wissen, dass LLM auf großen Computerclustern unter Verwendung umfangreicher Daten trainiert wird. Auf dieser Website wurden viele Methoden und Technologien vorgestellt, die den LLM-Trainingsprozess unterstützen und verbessern. Was wir heute teilen möchten, ist ein Artikel, der tief in die zugrunde liegende Technologie eintaucht und vorstellt, wie man einen Haufen „Bare-Metals“ ohne Betriebssystem in einen Computercluster für das LLM-Training verwandelt. Dieser Artikel stammt von Imbue, einem KI-Startup, das allgemeine Intelligenz durch das Verständnis der Denkweise von Maschinen erreichen möchte. Natürlich ist es kein einfacher Prozess, einen Haufen „Bare Metal“ ohne Betriebssystem in einen Computercluster für das Training von LLM zu verwandeln, aber Imbue hat schließlich erfolgreich ein LLM mit 70 Milliarden Parametern trainiert der Prozess akkumuliert

Schnellstart mit PyCharm Community Edition: Detailliertes Installations-Tutorial, vollständige Analyse Einführung: PyCharm ist eine leistungsstarke integrierte Python-Entwicklungsumgebung (IDE), die einen umfassenden Satz an Tools bereitstellt, mit denen Entwickler Python-Code effizienter schreiben können. In diesem Artikel wird die Installation der PyCharm Community Edition im Detail vorgestellt und spezifische Codebeispiele bereitgestellt, um Anfängern den schnellen Einstieg zu erleichtern. Schritt 1: PyCharm Community Edition herunterladen und installieren Um PyCharm verwenden zu können, müssen Sie es zunächst von der offiziellen Website herunterladen

Herausgeber des Machine Power Report: Yang Wen Die Welle der künstlichen Intelligenz, repräsentiert durch große Modelle und AIGC, hat unsere Lebens- und Arbeitsweise still und leise verändert, aber die meisten Menschen wissen immer noch nicht, wie sie sie nutzen sollen. Aus diesem Grund haben wir die Kolumne „KI im Einsatz“ ins Leben gerufen, um detailliert vorzustellen, wie KI durch intuitive, interessante und prägnante Anwendungsfälle für künstliche Intelligenz genutzt werden kann, und um das Denken aller anzuregen. Wir heißen Leser auch willkommen, innovative, praktische Anwendungsfälle einzureichen. Videolink: https://mp.weixin.qq.com/s/2hX_i7li3RqdE4u016yGhQ Vor kurzem wurde der Lebens-Vlog eines allein lebenden Mädchens auf Xiaohongshu populär. Eine Animation im Illustrationsstil, gepaart mit ein paar heilenden Worten, kann in nur wenigen Tagen leicht erlernt werden.

Titel: Ein Muss für technische Anfänger: Schwierigkeitsanalyse der C-Sprache und Python, die spezifische Codebeispiele erfordert. Im heutigen digitalen Zeitalter ist Programmiertechnologie zu einer immer wichtigeren Fähigkeit geworden. Ob Sie in Bereichen wie Softwareentwicklung, Datenanalyse, künstliche Intelligenz arbeiten oder einfach nur aus Interesse Programmieren lernen möchten, die Wahl einer geeigneten Programmiersprache ist der erste Schritt. Unter vielen Programmiersprachen sind C-Sprache und Python zwei weit verbreitete Programmiersprachen, jede mit ihren eigenen Merkmalen. In diesem Artikel werden die Schwierigkeitsgrade der C-Sprache und von Python analysiert

Retrieval-Augmented Generation (RAG) ist eine Technik, die Retrieval nutzt, um Sprachmodelle zu verbessern. Bevor ein Sprachmodell eine Antwort generiert, ruft es insbesondere relevante Informationen aus einer umfangreichen Dokumentendatenbank ab und verwendet diese Informationen dann zur Steuerung des Generierungsprozesses. Diese Technologie kann die Genauigkeit und Relevanz von Inhalten erheblich verbessern, das Problem der Halluzinationen wirksam lindern, die Geschwindigkeit der Wissensaktualisierung erhöhen und die Nachverfolgbarkeit der Inhaltsgenerierung verbessern. RAG ist zweifellos einer der spannendsten Bereiche der Forschung im Bereich der künstlichen Intelligenz. Weitere Informationen zu RAG finden Sie im Kolumnenartikel auf dieser Website „Was sind die neuen Entwicklungen bei RAG, das sich darauf spezialisiert hat, die Mängel großer Modelle auszugleichen?“ Diese Rezension erklärt es deutlich. Aber RAG ist nicht perfekt und Benutzer stoßen bei der Verwendung oft auf einige „Problempunkte“. Kürzlich die fortschrittliche generative KI-Lösung von NVIDIA
