Heim > Technologie-Peripheriegeräte > KI > Das Microsoft-Patentupdate enthüllt eine Möglichkeit, AR/VR-Headsets über Ring-Controller zu bedienen

Das Microsoft-Patentupdate enthüllt eine Möglichkeit, AR/VR-Headsets über Ring-Controller zu bedienen

WBOY
Freigeben: 2024-01-05 11:50:20
nach vorne
455 Leute haben es durchsucht

Laut einem Bericht von Yingwei.com vom 28. Dezember 2023 erforschen Technologiegiganten wie Apple und Meta verschiedene Eingabemethoden für Augmented Reality (AR) und Virtual Reality (VR), darunter auch Ringe. Gleichzeitig führt Microsoft ähnliche Untersuchungen durch. In einer Patentanmeldung mit dem Titel „Wearable Device Enabling Multi-Finger Geses“ stellte Microsoft einen Ring-Controller vor, mit dem entsprechende Endgeräte wie Headsets gesteuert werden können. Es wird erwartet, dass diese Technologie weitere Innovationen in den AR/VR-Bereich bringen wird.

In einer Ausführungsform umfasst ein tragbares Gerät wie ein Ring zwei Sensoren und einen Controller. Der erste Sensor ist so konfiguriert, dass er eine oder mehrere Bewegungen eines ersten Fingers des Benutzers erkennt, und der zweite Sensor ist so konfiguriert, dass er eine oder mehrere Bewegungen eines zweiten Fingers erkennt, der sich vom ersten Finger unterscheidet.

Der Controller ist so konfiguriert, dass er die relative Bewegung zwischen dem ersten Finger und dem zweiten Finger basierend auf der Bewegung des ersten und zweiten Fingers bestimmt. Diese relative Bewegung kann eine Mehrfingergeste definieren. Der Controller kann dann ein zugehöriges Endgerät, beispielsweise ein Head-Mounted-Display, auf Basis von Mehrfingergesten steuern.

Ein tragbares Gerät 100, beispielsweise ein Ring, kann am Finger des Benutzers getragen werden. Das tragbare Gerät 100 ist mit einer Reihe von Sensoren ausgestattet, um die relative Bewegung von zwei oder mehr Fingern zu erfassen, beispielsweise eines ersten Fingers 201 und eines zweiten Fingers 202. Das tragbare Gerät 100 erkennt eine Mehrfingergeste basierend auf dieser Relativbewegung verschiedener Finger und steuert dann das zugehörige Endgerät 300 basierend auf der Mehrfingergeste. Auf diese Weise können Nutzer Endgeräte effizienter und flexibler steuern und mit ihnen interagieren.

Das Microsoft-Patentupdate enthüllt eine Möglichkeit, AR/VR-Headsets über Ring-Controller zu bedienen

Wie in Abbildung 11c gezeigt, wird ein tragbares Gerät 100, beispielsweise ein Ring, mit einem am Kopf befestigten Display verwendet. Laut Microsoft nutzen bestehende Methoden zur Steuerung des Headsets Sprache, Hover-Gesten oder herkömmliche Controller. Allerdings bringt die Sprachsteuerung zwangsläufig Probleme mit der Privatsphäre mit sich, und Hover-Gesten können zu starker Ermüdung führen. Im Gegensatz dazu muss der Benutzer beim tragbaren Gerät 100 keine Hand heben und ist so privat, dass es in der Tasche getragen werden kann.

Das Microsoft-Patentupdate enthüllt eine Möglichkeit, AR/VR-Headsets über Ring-Controller zu bedienen

Wie in Abbildung 2 gezeigt, ist dies ein Beispiel, das die Struktur des tragbaren Geräts 100 zeigt. Das tragbare Gerät 100 weist ein ringförmiges Gehäuse 101 auf, das aus einer Außenseite 121, einer Innenseite 122 und einem dazwischen liegenden Seitenabschnitt 123 besteht.

Das tragbare Gerät 100 umfasst mindestens zwei Sensoren 105, 106, die jeweils als erster Sensor 105 und zweiter Sensor 106 bezeichnet werden. Diese beiden Sensoren dienen dazu, die Bewegung von mindestens zwei verschiedenen Fingern des Benutzers zu erfassen.

Der erste Sensor 105 und/oder der zweite Sensor 106 können Infrarot-Näherungssensoren sein. Infrarot-Näherungssensoren zeichnen sich durch geringe Größe, geringes Gewicht, geringen Stromverbrauch und niedrige Kosten aus, wodurch tragbare Geräte noch leichter und stromsparender werden. Es versteht sich, dass andere Arten von Abstandsmesssensoren wie optische Sensoren, kapazitive Sensoren und Ultraschallsensoren verwendet werden können. Wenn keine Lichtdurchlässigkeit erforderlich ist, kann sie bei Bedarf weggelassen oder an andere Strukturen angepasst werden.

Der erste Sensor 105 ist so konfiguriert, dass er mindestens eine Bewegung des ersten Fingers 201 oder eines Segments davon erkennt, und der zweite Sensor 106 ist so konfiguriert, dass er mindestens eine Bewegung des zweiten Fingers 202 oder eines Segments davon erkennt.

Einer oder beide der ersten und zweiten Sensoren 105,106 können die Bewegung mehrerer Teile des entsprechenden Fingers erfassen. Im Vergleich zu hochintensiven Bewegungen handelt es sich bei den Fingerbewegungen 105, 106, die vom ersten und zweiten Sensor erfasst werden müssen, lediglich um Relativbewegungen zwischen zwei verschiedenen Fingern. Dies ist eine sehr subtile Bewegung, die kleine Muskelbewegungen und keine Handbewegungen erfordert. Daher sind die Bewegungen, die erfasst werden müssen, weniger ermüdend, sodass der Benutzer das tragbare Gerät 100 über einen langen Zeitraum wie einen normalen Ring tragen kann.

Außerdem sind für die Interaktion nur zwei Finger erforderlich, was einer Einhandbedienung vorzuziehen ist, da die anderen drei Finger weiterhin andere Aufgaben erledigen können, beispielsweise das Halten einer Tasche.

Das tragbare Gerät 100 umfasst außerdem ein Steuermodul 102. Das Steuermodul 102 kann einen Controller 107, eine Batterie 115 und ein Kommunikationsmodul 114 umfassen. Wie in Abbildung 2 gezeigt, kann das Steuermodul 102 auf der Oberseite eines ringförmigen Gehäuses 101 angeordnet sein, ähnlich der Rautenform auf der Oberseite eines rautenförmigen Gehäuses. Dadurch kann die Dicke des ringförmigen Gehäuses 101 reduziert werden. Beispielsweise kann die Hülle 101 weniger als 1 mm dick sein und problemlos den ganzen Tag über ohne Beschwerden getragen werden.

Der Controller 107 bestimmt die relative Bewegung zwischen den beiden Fingern 201 und 202, indem er die Bewegungsdaten der Finger empfängt und analysiert, die von den ersten und zweiten Sensoren 105 und 106 erfasst werden. Eine solche relative Bewegung zwischen zwei Fingern definiert eine Zwei-Finger-Geste. Da außerdem nur relativ einfache und winzige Fingerbewegungen erkannt werden müssen, kann der Controller 107 als stromsparender und kostengünstiger Miniatur-Mikrocontroller, beispielsweise als 8-Bit-MCU, implementiert werden. Dadurch kann die Größe des tragbaren Geräts 100 weiter reduziert werden.

Um die Bewegung der Finger 201, 202 zu erkennen, kann das tragbare Gerät 100 mehrere Leiterkomponenten umfassen, wie etwa eine erste Leiterkomponente 103 und eine zweite Leiterkomponente 104. Die erste Leiterkomponente 103 weist ein erstes Ende 110 und ein zweites Ende 111 auf. Das erste Ende 110 ist mit dem ersten Sensor 105 gekoppelt und das zweite Ende 111 ist dem ersten Finger 201 zugewandt. Ebenso kann die zweite Leiterbaugruppe 104 ein drittes Ende 112 aufweisen, das mit dem zweiten Sensor 106 verbunden ist, und ein viertes Ende 113, das dem zweiten Finger 202 zugewandt ist. Auf diese Weise können durch die Ausrichtung der beiden Enden der Leiterbaugruppe die Bewegungen verschiedener Finger erfasst werden.

Das zweite Ende 111 und das vierte Ende 113 können sich am Boden des ringförmigen Gehäuses 101 befinden, wie in Abbildung 2 gezeigt. Mindestens eines von dem zweiten Ende 111 und dem vierten Ende 113 kann sich irgendwo zwischen dem Boden und den Seiten des ringförmigen Gehäuses 101 befinden.

Die erste Leiterkomponente 103 besteht aus einer ersten Lichtleitfaser 116 und einer zweiten Lichtleitfaser 117. Beispielsweise können die erste optische Faser 116 und die zweite optische Faser 117 im ersten Kanal 108 innerhalb des Gehäuses 101 angeordnet sein. Der erste Kanal 108 ist eine Hohlstruktur, die das Gewicht des tragbaren Geräts 100 reduzieren kann.

Modul 102 dient zur Steuerung des Systems, das ein Kommunikationsmodul 114 zur Kommunikation mit dem Endgerät 300 in Abbildung 1 umfasst. Das Endgerät 300 kann verkabelt oder drahtlos sein. Das Kommunikationsmodul 114 kann ein Bluetooth-Low-Energy-basiertes Modul verwenden.

Mit Bezug auf Abbildung 2 kann das Steuermodul 102 eine Batterie 115 umfassen. Da der Stromverbrauch des Controllers 107, der ersten und zweiten Sensoren 105, 106 und anderer notwendiger Komponenten sehr gering ist, kann die Größe der Batterie 115 sehr klein sein.

Unten finden Sie Beispiele für Mehrfingergesten.

Unter Bezugnahme auf Abbildung 1 wird in diesem Beispiel davon ausgegangen, dass das tragbare Gerät 100 am Basissegment 206 des Zeigefingers 201 getragen wird. Dabei ist das zweite Ende 111 des ersten Leiterbauteils 103 der Seite des Daumens 202 zugewandt, so dass der erste Sensor 105 den ersten Abstand 301 von der Seite des Daumens 202 zum ersten Sensor 105 erfassen kann.

Legen Sie das vierte Ende 113 der zweiten Leiterkomponente 103 in Richtung des ventralen Teils des Mittelteils 205 des Zeigefingers 201, sodass der zweite Sensor 106 die Bewegung vom ventralen Teil des Mittelteils 205 des Zeigefingers erfassen kann 201 zum zweiten Sensor 106 Zweiter Abstand 302.

Aufgrund der kleineren Größe des ringförmigen Gehäuses 101 ist der erste Abstand 301 im Wesentlichen der relative Abstand vom seitlichen Teil des Daumens 202 zum Basissegment 206 des Zeigefingers 201, während der zweite Abstand 302 im Wesentlichen der relative Abstand ist vom ventralen Teil des Mittelteils 205 bis zum Zeigefinger Der Korrelationsabstand des Basissegments 206 von 201. Auf diese Weise können die ersten und zweiten Sensoren 105, 106 einen oder mehrere Bewegungssätze erfassen.

Das Microsoft-Patentupdate enthüllt eine Möglichkeit, AR/VR-Headsets über Ring-Controller zu bedienen

Gemäß dem in Abbildung 4a gezeigten Einzelaktions-Gestenmodus werden, wenn der Daumen 202 den Zeigefinger 201 nicht berührt und stationär bleibt, der vom ersten Sensor 105 erfasste Abstand (Distanz X 301 genannt) und der vom zweiten erfasste Abstand gemessen Sensor 106 (genannt Abstand Y 302) bleibt unverändert. Beispielsweise bleibt der Abstand X301 als X1 und der Abstand Y302 als Y1 erhalten.

In diesem Szenario können wir sehen, dass der Daumen 202 im Bild den Zeigefinger 201 berührt und still bleibt. In diesem Fall bleiben die jeweils vom ersten Sensor 105 und vom zweiten Sensor 106 erfassten Abstände unverändert. Da sich jedoch die Position des Daumens 202 geändert hat, bleibt der Abstand x301 X2, der möglicherweise kleiner als X1 ist.

In diesem Fall kann der Wert des Abstands X anzeigen, ob der Daumen 202 Kontakt mit dem Zeigefinger hat, was wiederum anzeigen kann, ob die Bewegung beginnt oder endet. Es ist ersichtlich, dass die Steuerung 107 die Mehrfingergeste erkennen kann, indem sie den relativen Abstand zwischen dem ersten und zweiten Finger 201 und 202 bestimmt.

In einer Ausführungsform kann der Controller 107 eine Geste mit mehreren Fingern erkennen, indem er das relative Gleiten zwischen dem ersten und zweiten Finger 201, 202 basierend auf dem ersten und zweiten Aktionssatz bestimmt. Als Reaktion auf unterschiedliche Schieberichtungen kann der Controller 107 unterschiedliche Aktionen auslösen.

Wenn der Controller 107 erkennt, dass der erste Finger 201 von links nach rechts entlang des zweiten Fingers 202 gleitet, löst er eine bestimmte Aktion aus, die dem Endgerät 300 zugeordnet ist. Wenn die Steuerung 107 erkennt, dass der erste Finger 201 entlang des zweiten Fingers 202 von rechts nach links gleitet, löst sie in ähnlicher Weise auch eine weitere spezifische Aktion aus, die mit dem Endgerät 300 verbunden ist.

Das Microsoft-Patentupdate enthüllt eine Möglichkeit, AR/VR-Headsets über Ring-Controller zu bedienen

Die Abbildungen 4c-4d zeigen, wie sich der Abstand X 301 und der Abstand Y 302 ändern, wenn der Daumen 202 am Zeigefinger entlang gleitet. Wenn die ventrale Seite des Daumens 202 von links nach rechts entlang des Zeigefingers 201 gleitet, kann der zweite Sensor 106 das Gleiten des Daumens 202 erkennen und die erfassten Daten an die Steuerung 107 senden. Gleichzeitig kann der erste Sensor 105 erkennen, dass der Zeigefinger 201 seine Position beibehält und sendet die erfassten Daten an die Steuerung 107, wie in Abbildung 4d gezeigt.

Basierend auf den oben genannten ersten und zweiten Bewegungssätzen kann die Steuerung 107 die Mehrfingergeste erkennen, indem sie die oben genannten Relativbewegungen zwischen dem Zeigefinger 201 und dem Daumen 202 bestimmt. Dann löst der Controller 107 basierend auf der Mehrfingergeste eine mit dem Endgerät 300 verknüpfte Aktion aus.

Zum Beispiel kann die Steuerung 107 ein Steuersignal erzeugen, das dem „richtigen“ Vorgang zur Steuerung des Endgeräts 300 entspricht. In ähnlicher Weise gleitet die ventrale Seite des Daumens 202 von rechts nach links entlang des Zeigefingers 201, wie in FIG und dem Daumen 202 erzeugt die Steuerung 107 ein Steuersignal, das der „Links“-Bedienung entspricht und eine mit dem Endgerät 300 verbundene Aktion auslöst.

Die Abbildungen 4e-4f zeigen die Änderungen des Abstands X 301 und des Abstands Y 302, wenn der Zeigefinger 201 entlang des Daumens 202 auf und ab gleitet. Ähnlich wie oben kann der zweite Sensor 106, wenn der Seitenteil des Zeigefingers 201 entlang des Daumens 202 nach unten gleitet, erkennen, dass sich der ventrale Teil des Mittelabschnitts 205 des Zeigefingers 201 nach unten bewegt, und die erfassten Daten senden an die Steuerung 107 . Gleichzeitig kann der erste Sensor 105 erkennen, dass sich der Daumen 202 in einem stationären Zustand befindet, und die erkannten Daten an die Steuerung 107 senden, wie in Abbildung 4e gezeigt.

Basierend auf den oben genannten ersten und zweiten Bewegungssätzen kann die Steuerung 107 die Mehrfingergeste erkennen, indem sie die oben genannten Relativbewegungen zwischen dem Zeigefinger 201 und dem Daumen 202 bestimmt. Dann löst der Controller 107 basierend auf der Mehrfingergeste eine mit dem Endgerät 300 verbundene Aktion aus und steuert das Endgerät 300 durch Erzeugen eines Steuersignals, das der „Ab“-Operation entspricht, wie in Abbildung 4e dargestellt.

Ähnlich gilt für die Mehrfingergeste, die durch Bestimmung der oben erwähnten Relativbewegung zwischen dem Zeigefinger 201 und dem Daumen 202 erkannt wird, wie in Abbildung 4f gezeigt, dass der ventrale Teil des Mittelabschnitts 205 des Zeigefingers 201 nach oben gleitet Entlang des Daumens 202 leitet die Steuerung 107 ein Steuersignal entsprechend der „Aufwärts“-Operation weiter, um Aktionen auszulösen, die mit dem Endgerät 300 verbunden sind.

In einer Ausführungsform kann der Controller 107 die Tippgeste erkennen, indem er die relative Bewegung zwischen dem ersten und zweiten Finger 201, 202 bestimmt.

Für unterschiedliche Tippsegmente des Fingers kann der Controller 107 unterschiedliche Aktionen auslösen. Beispielsweise kann die Steuerung 107 die erste Aktion als Reaktion auf die Erkennung auslösen, dass der erste Finger 201 auf den zweiten Teil des zweiten Fingers 202 tippt, und die erste Aktion als Reaktion auf die Erkennung auslösen, dass der erste Finger 201 auf den dritten Teil des zweiten Fingers tippt Finger 202 . Eine zweite Aktion, die sich von der ersten Aktion unterscheidet.

Abbildung 4 zeigt, wie sich der Abstand In diesem Fall kann der erste Sensor 105 erkennen, dass sich der Daumen 202 dem äußersten Segment 204 nähert und/oder sich von diesem entfernt, und die erfassten Daten an die Steuerung 107 senden, während der zweite Sensor 106 erkennen kann, dass der Zeigefinger stationär bleibt. , und senden Sie die erkannten Daten an den Controller 107, wie in Abbildung 4e gezeigt.

Basierend auf den oben genannten ersten und zweiten Bewegungssätzen erkennt die Steuerung 107 die Mehrfingergeste, indem sie die oben genannten Relativbewegungen zwischen dem Zeigefinger 201 und dem Daumen 202 ermittelt. Dann löst der Controller 107 basierend auf der Mehrfingergeste eine mit dem Endgerät 300 verknüpfte Aktion aus, indem er ein Steuersignal erzeugt, das der OK-Operation entspricht.

Abbildung 4h zeigt die Änderungen der Distanz X 301 und der Distanz Y 302, wenn der Daumen 202 auf das mittlere Segment 205 des Zeigefingers tippt oder in die Nähe des mittleren Segments 205 tippt. In diesem Fall kann der erste Sensor 105 erkennen, dass sich der Daumen 202 zum Mittelteil 205 hin und/oder von diesem weg bewegt, und die erfassten Daten an die Steuerung 107 senden. Gleichzeitig kann der zweite Sensor 106 erkennen, dass sich der Zeigefinger nicht bewegt, und die erkannten Daten an die Steuerung 107 senden, wie in Abbildung 4e dargestellt.

Basierend auf den oben genannten ersten und zweiten Bewegungssätzen kann der Controller 107 die Mehrfingergeste erkennen, indem er die relative Bewegung zwischen dem Zeigefinger 201 und dem Daumen 202 erkennt. Dann erzeugt der Controller 107 ein Steuersignal, das dem „Abbrechen“-Vorgang gemäß der Mehrfingergeste entspricht, um eine weitere damit verbundene Aktion auf dem Endgerät 300 auszulösen.

Das Microsoft-Patentupdate enthüllt eine Möglichkeit, AR/VR-Headsets über Ring-Controller zu bedienen

Das Microsoft-Patentupdate enthüllt eine Möglichkeit, AR/VR-Headsets über Ring-Controller zu bedienen

Das Microsoft-Patentupdate enthüllt eine Möglichkeit, AR/VR-Headsets über Ring-Controller zu bedienen

Wie aus dem oben Gesagten ersichtlich ist, können der erste Sensor 105 und der zweite Sensor 106 eine oder mehrere subtile Relativbewegungen zwischen dem Zeigefinger 201 und dem Daumen 202 erfassen, und die Steuerung 107 kann diese durch Ermitteln eines Satzes von einer oder mehreren relativen Bewegungen erfassen mehr Bewegungen ausführen und das zugehörige Endgerät 300 basierend auf den Mehrfingergesten steuern. Bei diesen Bewegungen werden weniger Muskeln beansprucht als beim „Hängen“ oder „Hände heben“, wodurch die Ermüdung während des Betriebs verringert wird.

Darüber hinaus sind die Aktionen, die durch den ersten und zweiten Sensor 105 und 106 erfasst werden können, sehr intuitiv und leicht zu verstehen. Gleichzeitig kann bei der Ausführung der Aktionen ein natürliches taktiles Feedback erhalten werden, sodass die Augen bei der Ausführung von Star-Offizier-Aktionen völlig überflüssig sein können.

Zusätzlich zu den regulären Richtungscursoroperationen kann das tragbare Gerät 100 im Einzelbewegungsgestenmodus durch die Erkennung spezifischer Mehrfingergesten X-Y-Schieberegler- (7a) und Doppeltastenfunktionen (7b) implementieren. Daher kann das tragbare Gerät 100 als Eingabemodus für ein Gerät wie beispielsweise ein Head-Mounted Display dienen.

Zusätzlich zu Einzelfingergesten können verwandte Gesten Mehrfingergesten umfassen, wie in 8a und 8b gezeigt. In diesem Fall kann die Steuerung 107 eine oder mehrere Aktionen auslösen, indem sie ein Steuersignal entsprechend einer Reihe von Aktionen erzeugt, wie beispielsweise die rhythmische wiederholte Shuttle-Gleitbewegung des ersten Fingers 201 entlang des zweiten Fingers 202, wobei der erste Finger 201 relativ mehrere ist Klopfbewegungen des zweiten Fingers 202 oder eine Kombination davon.

Wenn beispielsweise im Multi-Action-Gestenmodus der erste Finger 201 die Shuttle-Gleitbewegung entlang des zweiten Fingers 202 rhythmisch wiederholt, kann der Controller 107 die Multi-Finger-Geste erkennen, indem er die obige Aktionsgruppe bestimmt. Basierend auf der erkannten Mehrfingergeste kann die Steuerung 107 eine Aktion, d. h. eine erste Aktion, auslösen, indem sie beispielsweise ein Steuersignal erzeugt, das einem Aktivierungsvorgang entspricht, der eine bestimmte Funktion des zugehörigen Endgeräts aktiviert.

Als Reaktion darauf, dass der zweite Finger 202 die Shuttle-Gleitbewegung entlang des ersten Fingers 201 rhythmisch wiederholt, kann die Steuerung 107 die Geste mit mehreren Fingern erkennen, indem sie den oben genannten Bewegungssatz bestimmt. Basierend auf der erkannten Mehrfingergeste kann die Steuerung 107 eine weitere Aktion auslösen, nämlich eine zweite Aktion.

Zum Beispiel kann die Steuerung 107 als Reaktion auf eine schnelle (z. B. mehr als etwa 120/min) rhythmisch wiederholte Shuttle-Gleitbewegung des ersten Fingers 201 entlang des zweiten Fingers 202 mehrmals (z. B. mehr als dreimal) bestimmen Der obige Bewegungssatz wird zur Erkennung von Mehrfingergesten verwendet. Basierend auf der erkannten Mehrfingergeste kann die Steuerung 107 eine Aktion auslösen, indem sie ein Steuersignal generiert.

Es ist ersichtlich, dass der Controller 107 im Multi-Action-Gestenmodus mehr Aktionen basierend auf mehreren Aktionssätzen auslösen kann, d. h. das tragbare Gerät 100 kann das Endgerät auf mehrere Arten steuern.

Im Multi-Action-Gestenmodus sollte eine Reihe von Aktionen, die dazu führen können, dass der Controller 107 eine Aktion auslöst, eine Reihe spezieller Aktionen sein, die in unserem täglichen Leben selten vorkommen. Zum Beispiel durch die Verwendung einer Reihe selten vorkommender rhythmischer Bewegungen, wie zum Beispiel schnell-schnell-langsam-schnell oder langsam-schnell-langsam-schnell. „Schnell“ bezieht sich hier auf eine schnelle Gleitbewegung des ersten Fingers 201 entlang des zweiten Fingers 202 und „langsam“ bezieht sich auf eine schnelle Gleitbewegung.

Abbildung 9 zeigt ein Flussdiagramm der im tragbaren Gerät 100 implementierten Methode.

Bei 1320 wird mit dem zweiten Sensor 106 ein zweiter Satz einer oder mehrerer Bewegungen des zweiten Fingers 202, die sich vom ersten Finger 201 unterscheiden, erfasst.

Dann können wir in 1330 über die Steuerung 107 basierend auf dem ersten und zweiten Bewegungssatz die relative Bewegung zwischen dem ersten und zweiten Finger 201, 202 bestimmen und so die Erkennung von Mehrfingergesten realisieren.

In 1340 gibt es ein Endgerät 300 und ein tragbares Gerät 100, die durch Mehrfinger-Gestensteuerung miteinander verbunden sind.

Das Microsoft-Patentupdate enthüllt eine Möglichkeit, AR/VR-Headsets über Ring-Controller zu bedienen

Wenn das tragbare Gerät 100 am Zeigefinger getragen wird, zeigt Abbildung 10 ein Beispiel dafür, wie der Controller 107 den Erkennungsalgorithmus 1400 im Einzelbewegungsgestenmodus ausführt.

In 1401 wird der Einzelbewegungs-Gestenmodus aktiviert, und dann bestimmt die Steuerung 107 in 1402, ob sich der Abstand y302 ändert, je nachdem, ob die Differenz zwischen der maximalen Entfernung Y und der minimalen Entfernung Y größer oder kleiner als die Schwellenwertdifferenz ist Y, und der maximale Abstand Y stellt den dritten Maximalwert dar, der vom zweiten Sensor 106 innerhalb eines Erkennungszeitraums erfasst wurde. Ebenso stellt der Mindestabstand Y den vom zweiten Sensor 106 innerhalb eines Erkennungszeitraums erfassten Mindestwert dar. Der maximale Abstand X bezieht sich auf den vom ersten Sensor 105 innerhalb eines Erkennungszyklus erfassten Maximalwert und der minimale Abstand

In 1406 erkennt die Steuerung 107 in dem Fall, in dem sich der Abstand y302 ändert, d Der endgültige Abstand Y ist groß. Bestimmen Sie, ob der endgültige Abstand Y größer als der Durchschnitt des maximalen Abstands Y und des minimalen Abstands Y ist.

Wenn der Endabstand Y größer als der Durchschnittswert ist, das heißt, der Endabstand Y größer ist, kann die Steuerung 107 die Mehrfingergeste erkennen, die dem Aktionssatz entspricht, bei dem die ventrale Seite des Mittelabschnitts 205 des Zeigefinger 201 bewegt sich nach oben. Der Controller 107 löst dann die Aktion aus, indem er ein Steuersignal erzeugt, das der „Aufwärts“-Operation entspricht. Im Gegenteil, wenn der Endabstand Y kleiner als der Durchschnittswert ist, ist der Endabstand Y kleiner. Auf diese Weise kann die Steuerung 107 eine Geste mit mehreren Fingern erkennen, die einer Reihe von Bewegungen entspricht, bei denen sich die ventrale Seite des mittleren Segments 205 des Zeigefingers 201 nach unten bewegt. Der Controller 107 löst die Aktion aus, indem er ein Steuersignal erzeugt, das dem „Abwärts“-Vorgang entspricht.

Wenn der Abstand y302 unverändert bleibt, das heißt, die Differenz zwischen dem maximalen Abstand Y und dem minimalen Abstand Y im Wesentlichen gleich dem Schwellenwertunterschied Y ist, bestimmt die Steuerung 107 den Abstand x301, indem sie bestimmt, ob die Differenz zwischen dem maximalen Abstand X und der Mindestabstand X ist größer als die Schwellenwertdifferenz X, unabhängig davon, ob Änderungen aufgetreten sind. Dann bestimmt die Steuerung 107, ob der endgültige Abstand X groß ist, indem sie bestimmt, ob der endgültige Abstand X größer als der Durchschnittswert des maximalen Abstands X und des minimalen Abstands

Wenn der Endabstand X größer ist als der Durchschnittswert, also der Endabstand Der Controller 107 löst dann eine Aktion aus, indem er ein Steuersignal erzeugt, das der „Links“-Operation entspricht.

Wenn die Enddistanz Der Controller 107 löst dann eine Aktion aus, indem er ein Steuersignal erzeugt, das dem „richtigen“ Vorgang entspricht.

Ebenso ist auch der Erkennungsalgorithmus für Multi-Action-Gesten sehr einfach. Wie oben erwähnt, können spezielle Aktionssätze für Multi-Action-Gesten vom Benutzer voreingestellt oder manuell eingestellt werden. Der Erkennungsalgorithmus kann dann ein spezifisches Steuersignal erzeugen, indem er erkennt, ob eine Reihe von Bewegungen, die der Benutzer ausführt, im Wesentlichen mit einer bestimmten Bewegung übereinstimmt, und den Controller 107 veranlassen, eine Aktion auszulösen.

Durch die Nutzung der Einfachheit des Erkennungsalgorithmus und die Verwendung eines Bluetooth-Moduls mit niedrigem Energieverbrauch als Kommunikationsmodul 114 kann ein geringer Stromverbrauch des tragbaren Geräts 100 erreicht werden.

Verwandte Patente: Microsoft-Patent |. Tragbares Gerät, das Mehrfingergesten ermöglicht

Die Microsoft-Patentanmeldung mit dem Titel „Wearable Device Enabling Multi-Finger Gestures“ wurde ursprünglich im August 2023 eingereicht und kürzlich vom US-Patent- und Markenamt veröffentlicht.

Es ist zu beachten, dass eine US-Patentanmeldung im Allgemeinen nach der Prüfung automatisch 18 Monate nach dem Anmeldetag oder Prioritätsdatum veröffentlicht wird oder auf Antrag des Patentinhabers innerhalb von 18 Monaten nach dem Anmeldetag veröffentlicht wird Antragsteller. Beachten Sie, dass die Veröffentlichung einer Patentanmeldung nicht bedeutet, dass das Patent genehmigt wird. Nachdem eine Patentanmeldung eingereicht wurde, verlangt das USPTO eine tatsächliche Prüfung, die zwischen einem und drei Jahren dauern kann.

Darüber hinaus handelt es sich lediglich um eine Patentanmeldung, was nicht bedeutet, dass sie genehmigt wird. Gleichzeitig ist nicht sicher, ob sie tatsächlich kommerzialisiert wird und welche tatsächliche Anwendungswirkung sie hat.

Das obige ist der detaillierte Inhalt vonDas Microsoft-Patentupdate enthüllt eine Möglichkeit, AR/VR-Headsets über Ring-Controller zu bedienen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:sohu.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage