Auf der WWDC Apple erwähnte kein Wort über „künstliche Intelligenz (KI)“ , ebenso wenig wie einige der populäreren Begriffe in der aktuellen Technologiewelt wie „ChatGPT“.
Apple hat lediglich sieben Mal „maschinelles Lernen (ML)“ erwähnt.
Selbst bei der Vorstellung ihrer AR-Brille Vision Pro, die sie seit 7 Jahren vorbereiten, gaben sie nur an, dass „fortgeschrittene Kodierungs-Dekodierungs-Neuronale Netze verwendet“ .
Das ist völlig anders als der „High-Profile“-Ansatz großer Silicon-Valley-Unternehmen wie Microsoft und Google in der aktuellen Welle großer Modelle (oder dem, was man „KI-Hype“ nennen könnte).
Könnte es sein, dass , wie einige Experten und Medien sagten, Apple in diesem KI-Wettbewerb ins Hintertreffen geraten ist? Oder warten sie immer noch und schauen zu? Eigentlich nicht.
Obwohl Apple auf der WWDC nicht über große KI-Modelle sprach (oder sie auch nur anpreiste), haben sie einige neue KI-basierte Funktionen eingeführt, wie eine verbesserte iPhone-Autokorrektur, wenn Sie die Leertaste drücken bar kann es ein Wort oder einen ganzen Satz vervollständigen.
Die Funktion basiert auf ML-Programmen, die das Transformer-Sprachmodell verwenden, wodurch die Autokorrektur genauer als je zuvor ist. und Transformer ist eine der wichtigen Technologien, die ChatGPT unterstützt.
Apple sagt, dass es sogar lernen wird, wie Benutzer schreiben und tippen, um es besser zu machen.
Berichten zufolge basiert die neue „AutoKorrektur“ auf maschinellem Lernen auf dem Gerät, Apple hat diese Modelle im Laufe der Jahre kontinuierlich verbessert ... Mit Hilfe von Apple Silicon Leistungsstarke , kann das iPhone dieses Modell jedes Mal ausführen, wenn der Benutzer eine Taste tippt.
„In den Momenten, in denen Sie einfach nur ein Ducking-Wort eingeben möchten, lernt die Tastatur von selbst“, sagte Craig Federighi, Senior Vice President Software Engineering bei Apple.
Ein weiteres Beispiel ist Apples Verbesserung der AirPods Pro, die „die Geräuschunterdrückung automatisch ausschaltet, wenn das Headset Benutzergespräche erkennt“ . Apple macht dies nicht zu einer Funktion für maschinelles Lernen, aber es ist ein schwer zu lösendes Problem, und die Lösung basiert auf KI-Modellen.
Darüber hinaus basieren auch neue Funktionen wie das Identifizieren von in PDFs auszufüllenden Feldern und das Identifizieren Ihres Haustiers (und das anschließende Gruppieren aller Fotos dieses Haustiers in einem Ordner) auf Apple Research Arbeit in neuronalen Netzen.
Auf der WWDC sprach Apple nicht über bestimmte KI-Modelle, Trainingsdaten oder mögliche Richtungen für zukünftige Verbesserungen, sondern erwähnte lediglich, dass „diese Funktionen durch coole Technologie unterstützt werden“.
Im Gegensatz zu dem, was seine Konkurrenten tun (mit Serverclustern, Supercomputern und Terabytes an Daten, um größere Modelle zu erstellen), Apple möchte KI-Modelle auf seinen Geräten erstellen.
Funktionen wie das neue „AutoCorrect“ basieren auf dieser Idee und laufen auf dem iPhone, während Modelle wie ChatGPT von Hunderten teurer GPUs trainiert werden müssen.
Der Vorteil davon ist, dass , KI, das auf dem Gerät ausgeführt wird, viele der Datenschutzprobleme umgeht, mit denen cloudbasierte KI konfrontiert ist. Wenn ein Modell auf einem Telefon ausgeführt werden kann, muss Apple nur weniger Daten sammeln, um es auszuführen .
Es ist erwähnenswert, dass Apple auch das neueste Mitglied der M2-Chipfamilie angekündigt hat – den M2 Ultra. Es basiert auf einem 5-nm-Prozess der zweiten Generation und verfügt über bis zu 24 CPU-Kerne, 76 GPU-Kerne und eine 32-Kern-Neural Engine mit einer Leistung von 31,6 Billionen Operationen pro Sekunde.
Apple sagt , dass diese Funktion beim Training „großer Transformer-Modelle“ nützlich sein kann.
„M2 Ultra kann bis zu 192 GB einheitlichen Speicher unterstützen, 50 % mehr als M1 Ultra, wodurch er Aufgaben erledigen kann, die andere Chips nicht bewältigen können. Beispielsweise kann er in einem einzigen System große ML-Workloads trainieren, z Als große Transformer-Modelle können solche Modelle aufgrund unzureichenden Speichers nicht einmal von den leistungsstärksten diskreten GPUs verarbeitet werden.“
Die Ankunft des M2 Ultra hat einige Experten für künstliche Intelligenz in Aufregung versetzt.
„Ob zufällig oder beabsichtigt, die Silicon Unified Memory Architecture von Apple bedeutet, dass High-End-Macs jetzt wirklich erstaunliche Maschinen für den Betrieb großer KI-Modelle und die Durchführung von KI-Forschung sind“, sagte Perry E. Metzger auf Twitter. Es gibt nicht viele andere Systeme zu diesem Preis, die 192 GB GPU-zugänglichen Speicher bieten.“
Größerer Speicher bedeutet, dass größere, leistungsfähigere KI-Modelle in den Speicher passen, was möglicherweise vielen Menschen die Möglichkeit gibt, KI auf ihren PCs zu trainieren.
Obwohl es zumindest vorerst keine Leistungsbewertung von M2 Ultra und A100 (oder sogar H100) gibt, Apple ist offen in den Bereich der generativen KI-Trainingshardware eingestiegen .
Das obige ist der detaillierte Inhalt vonWer sagt, dass Apple ins Hintertreffen gerät? KI wurde auf der WWDC nicht erwähnt, große Modelle wurden jedoch auf unauffällige Weise vorgestellt. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!