À la WWDC, Apple n'a pas mentionné un mot sur « l'intelligence artificielle (IA) » , ainsi que sur certains des termes les plus populaires dans le monde technologique actuel tels que « ChatGPT ».
Tout ce qu'Apple a fait, c'est simplement mentionner « machine learning (ML) » 7 fois.
Même en présentant leurs lunettes AR Vision Pro, qu'ils préparent depuis 7 ans, ils ont seulement déclaré que "utilise des réseaux neuronaux avancés d'encodage-décodage" .
C'est complètement différent de l'approche « high-profile » des grandes entreprises de la Silicon Valley comme Microsoft et Google dans la vague actuelle des grands modèles (ou ce qu'on peut appeler « AI Hype »).
Se pourrait-il que, , comme l'ont dit certains experts et médias, Apple ait pris du retard dans cette compétition d'IA ? Ou est-ce qu'ils attendent et regardent toujours ? En fait, ce n’est pas le cas.
Bien qu'Apple n'ait pas parlé (ni même vanté) de grands modèles d'IA à la WWDC, ils ont introduit de nouvelles fonctionnalités basées sur l'IA comme la correction automatique améliorée de l'iPhone lorsque vous appuyez sur Lorsque vous appuyez sur l'espace barre, il peut compléter un mot ou une phrase entière.
La fonctionnalité est basée sur des programmes ML utilisant le modèle de langage Transformer, ce qui rend la correction automatique plus précise que jamais , et Transformer est l'une des technologies importantes prenant en charge ChatGPT.
Apple dit qu'il apprendra même comment les utilisateurs envoient des SMS et tapent pour l'améliorer.
Selon les rapports, le nouveau "AutoCorrect" est alimenté par l'apprentissage automatique sur l'appareil, Apple a continuellement amélioré ces modèles au fil des ans ... Avec l'aide d'Apple Silicon Puissant , l'iPhone peut exécuter ce modèle chaque fois que l'utilisateur appuie sur une touche.
"Pour les moments où vous souhaitez simplement taper un mot d'esquive, le clavier apprend tout seul", a déclaré Craig Federighi, vice-président senior de l'ingénierie logicielle d'Apple.
Un autre exemple est l'amélioration apportée par Apple aux AirPods Pro, qui "désactive automatiquement la réduction du bruit lorsque le casque détecte une conversation de l'utilisateur" . Apple n'en fait pas une fonctionnalité d'apprentissage automatique, mais c'est un problème difficile à résoudre et la solution est basée sur des modèles d'IA.
De plus, de nouvelles fonctionnalités telles que identifiant les champs à remplir dans les PDF et identifiant votre animal de compagnie (puis regroupant toutes les photos de cet animal dans un dossier) sont également basées sur Apple Research travailler dans les réseaux de neurones.
À la WWDC, Apple n'a pas parlé de modèles d'IA spécifiques, de données de formation ou d'orientations possibles pour des améliorations futures, mais a simplement mentionné que "ces fonctionnalités sont prises en charge par une technologie intéressante".
Contrairement à ce que font ses concurrents (en utilisant des clusters de serveurs, des supercalculateurs et des téraoctets de données pour construire des modèles plus grands), Apple veut construire des modèles d'IA sur ses appareils.
Des fonctionnalités telles que la nouvelle « Correction automatique » sont basées sur cette idée et fonctionnent sur l'iPhone, tandis que des modèles comme ChatGPT doivent être entraînés par des centaines de GPU coûteux.
L'avantage est que , L'IA exécutée sur l'appareil contourne de nombreux problèmes de confidentialité des données rencontrés par l'IA basée sur le cloud. Lorsqu'un modèle peut fonctionner sur un téléphone, Apple n'a qu'à collecter moins de données pour l'exécuter .
Il convient de noter qu'Apple a également annoncé le dernier membre de la famille des puces M2 - M2 Ultra. Il est construit sur un processus 5 nm de deuxième génération et possède jusqu'à 24 cœurs de processeur, 76 cœurs de GPU et un moteur neuronal à 32 cœurs capable d'effectuer 31,6 billions d'opérations par seconde.
Apple dit que cette fonctionnalité peut s'avérer utile lors de la formation de « grands modèles de Transformer ».
« M2 Ultra peut prendre en charge jusqu'à 192 Go de mémoire unifiée, soit 50 % de plus que M1 Ultra, ce qui lui permet d'effectuer des tâches que d'autres puces ne peuvent pas. Par exemple, dans un seul système, il peut entraîner d'énormes charges de travail ML, telles que. En tant que grands modèles Transformer, ces modèles ne peuvent pas être traités même par les GPU discrets les plus puissants en raison d'une mémoire insuffisante. »
L'arrivée du M2 Ultra enthousiasme certains experts en intelligence artificielle.
"Que ce soit par accident ou par conception, l'architecture de mémoire unifiée au silicium d'Apple signifie que les Mac haut de gamme sont désormais des machines vraiment étonnantes pour exécuter de grands modèles d'IA et mener des recherches sur l'IA", a déclaré Perry E. Metzger sur Twitter. Il n'y a pas beaucoup d'autres systèmes à ce prix qui offrent 192 Go de mémoire accessible par GPU.
Une plus grande mémoire signifie que des modèles d'IA plus grands et plus performants peuvent s'insérer dans la mémoire, donnant potentiellement à de nombreuses personnes la possibilité d'entraîner l'IA sur leurs ordinateurs personnels.
Bien qu'il n'y ait pas d'évaluation des performances du M2 Ultra par rapport à l'A100 (ou même au H100), du moins pour l'instant, Apple est ouvertement entré dans le domaine du matériel de formation à l'IA générative.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!