Heim > Technologie-Peripheriegeräte > KI > Apple WWDC23 erwähnt „künstliche Intelligenz' nicht und verwendet lieber „maschinelles Lernen'

Apple WWDC23 erwähnt „künstliche Intelligenz' nicht und verwendet lieber „maschinelles Lernen'

PHPz
Freigeben: 2023-06-06 16:01:57
nach vorne
636 Leute haben es durchsucht

IT House News am 6. Juni: Neben der Einführung der mit Spannung erwarteten neuen Produkte wie Mac Pro und Vision Pro stellte Apple während seiner Keynote-Rede zur WWDC 2023 am Montag auch seine neuesten Fortschritte im Bereich maschinelles Lernen vor. Allerdings fiel IT House auf, dass Apple im Gegensatz zu Konkurrenten wie Microsoft und Google, die generative künstliche Intelligenz stark vorantreiben, in seiner Rede nicht das Wort „künstliche Intelligenz“ erwähnte, sondern häufiger von „maschinellem Lernen“ und „maschinellem Lernen“ sprach. Begriffe wie „ML“.

苹果 WWDC23 不提“人工智能”,更倾向使用“机器学习”

Zum Beispiel beschrieb Craig Federighi, Senior Vice President of Software Engineering, in einer Demo von iOS 17 Verbesserungen bei der automatischen Fehlerkorrektur und Spracherkennung:

Die automatische Fehlerkorrektur basiert auf maschinellem Lernen auf dem Gerät und wir haben diese Modelle im Laufe der Jahre kontinuierlich verbessert. Die Tastatur nutzt jetzt ein Transformer-Sprachmodell, die fortschrittlichste Wortvorhersagetechnologie auf dem Markt, wodurch die automatische Fehlerkorrektur genauer denn je ist. Und dank der Leistung der Apple Silicon-Chips kann das iPhone dieses Modell jedes Mal ausführen, wenn Sie eine Taste drücken.

Es ist erwähnenswert, dass Apple in seiner Keynote-Rede den Begriff „Transformer“ im Bereich der künstlichen Intelligenz erwähnt hat. Das Unternehmen spricht speziell von einem „Transformer-Sprachmodell“, was bedeutet, dass seine KI-Modelle die Transformer-Architektur verwenden, die die zugrunde liegende Technologie ist, die vielen neueren generativen KIs wie dem DALL-E-Bildgenerator und dem ChatGPT-Chatbot zugrunde liegt. Das Transformer-Modell (ein Konzept, das erstmals 2017 vorgeschlagen wurde) ist eine neuronale Netzwerkarchitektur für die Verarbeitung natürlicher Sprache (NLP), die einen Selbstaufmerksamkeitsmechanismus verwendet, der es ihr ermöglicht, verschiedene Wörter oder Elemente in einer Sequenz zu priorisieren. Seine Fähigkeit, Eingaben parallel zu verarbeiten, verbessert die Effizienz erheblich und ermöglicht bahnbrechende Fortschritte bei NLP-Aufgaben wie Übersetzung, Zusammenfassung und Beantwortung von Fragen.

Laut Apple kann das neue Transformer-Modell in iOS 17 eine automatische Fehlerkorrektur auf Satzebene erreichen. Wenn Sie die Leertaste drücken, kann ein Wort oder ein ganzer Satz vervollständigt werden. Es lernt auch anhand Ihres Schreibstils, um Empfehlungen abzugeben. Apple sagt außerdem, dass die Spracherkennung „ein transformatorbasiertes Spracherkennungsmodell verwendet, das eine neuronale Engine nutzt, um die Spracherkennung genauer zu machen“.

In der Keynote-Rede erwähnte Apple auch mehrfach „maschinelles Lernen“, beispielsweise bei der Beschreibung der neuen iPad-Sperrbildschirmfunktion („Wenn Sie ein Live-Foto auswählen, verwenden wir ein fortschrittliches maschinelles Lernmodell, um zusätzliche Frames zu synthetisieren“); PDF-Funktion („Dank neuer Modelle für maschinelles Lernen kann iPadOS Felder in PDFs erkennen, sodass Sie mithilfe von AutoFill schnell Informationen wie Namen, Adressen und E-Mails aus Ihren Kontakten usw. eingeben können.“); Durch die Personalisierung der Lautstärke nutzen wir maschinelles Lernen, um zu lernen, wie sich Ihre Hörpräferenzen im Laufe der Zeit ändern“); und die Apple Watch-Widget-Funktion Smart Stack („Smart Stack nutzt maschinelles Lernen, um Ihnen relevante Informationen anzuzeigen, wenn Sie sie brauchen“).

Apple hat außerdem eine neue App namens Journal auf den Markt gebracht, die maschinelles Lernen auf dem Gerät nutzt, um personalisierte Empfehlungen bereitzustellen und den Benutzern Inspiration für das Tagebuch zu bieten. Diese Vorschläge werden intelligent generiert und basieren auf den letzten Aktivitäten des Benutzers, einschließlich Fotos, Personen, Orten, körperlichem Training usw., sodass Benutzer leichter mit der Aufnahme beginnen können.

Schließlich enthüllte das Unternehmen während einer Demo des Vision Pro-Headsets, dass das dynamische Bild auf den Augen des Benutzers ein spezieller 3D-Avatar ist, der durch Scannen Ihres Gesichts erstellt wurde – natürlich dank maschinellem Lernen.

Das obige ist der detaillierte Inhalt vonApple WWDC23 erwähnt „künstliche Intelligenz' nicht und verwendet lieber „maschinelles Lernen'. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Quelle:sohu.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage