IT Home News Am 14. Dezember hat Apple kürzlich ein Supportdokument veröffentlicht, das besagt, dass ab der Veröffentlichung von iOS 17.2 kartenbezogene Daten gesammelt werden, um die Augmented-Reality-Positionierungsfunktion zu verbessern.
Apple sagt, dass sie Daten sammeln, um die Geschwindigkeit und Genauigkeit der Augmented-Reality-Funktionen in der Apple Maps-App zu verbessern
IT House zitierte die Ankündigung von Apple, dass bei der Nutzung von Augmented-Reality-Funktionen (einschließlich immersiver Wanderrouten oder optimierter Standortoptionen) in der Apple Maps-App relevante Informationen über „Feature-Punkte“, einschließlich Gebäude, sowie Form und Aussehen stationärer Objekte erfasst werden wie zum Beispiel Gegenstände.
Apple gab an, dass die gesammelten Informationen keine Fotos oder Videos umfassen, sondern den maschinellen Lernalgorithmus auf dem Gerät verwenden, um die an Apple Maps auf dem iPhone gesendeten Referenzdaten zu vergleichen.
Apple sagte, dass die Kamera sich bewegende Objekte wie Personen und Fahrzeuge herausfiltert, während Apple nur „Kartenpunkte“ von stationären Objekten sammelt.
Die von Apple erfassten Daten sind verschlüsselt und nicht an einen einzelnen Benutzer oder eine Apple-ID gebunden. Apple verwendet außerdem maschinelles Lernen auf dem Gerät, um den „Kartenpunkt“-Daten „Rauschen“ hinzuzufügen, um unregelmäßige Variationen hinzuzufügen und die Möglichkeit einer Datenrekonstruktion zu verhindern von „Kartenpunkt“-Bildern.
Das obige ist der detaillierte Inhalt vonUm die Genauigkeit von AR-Szenen in Apple Maps zu verbessern, beginnt Apple mit der Erfassung relevanter Daten. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!