Selon les nouvelles de ce site du 2 avril, bien que Siri puisse actuellement essayer de décrire les images dans le message, l'effet n'est pas stable. Pour autant, Apple n’a pas renoncé à explorer le domaine de l’intelligence artificielle. Dans un récent document de recherche, l'équipe d'intelligence artificielle d'Apple a décrit un modèle qui peut améliorer considérablement l'intelligence de Siri. Ils estiment que ce modèle, appelé ReALM, a surpassé le modèle de langage bien connu d'OpenAI, GPT-4.0 lors des tests.
Cet article présente la particularité de ReALM, qui peut comprendre simultanément le contenu sur l'écran de l'utilisateur et les opérations en cours. Les discussions sont divisées selon les trois types suivants :
Si cela fonctionne parfaitement, ReALM rendra Siri encore plus intelligent et plus utile. Ils ont comparé les performances de ReALM avec celles des GPT-3.5 et GPT-4.0 d'OpenAI :
Nous avons testé les modèles GPT-3.5 et GPT-4.0 fournis par OpenAI et leur avons fourni des informations contextuelles pour leur permettre de prédire une série d'entités possibles. GPT-3.5 n'accepte que la saisie de texte, nous ne fournissons donc que des indications textuelles. GPT-4 peut comprendre les informations sur les images, nous lui avons donc fourni des captures d'écran, ce qui a considérablement amélioré ses capacités de reconnaissance d'entités d'écran.
Alors, comment fonctionne ReALM d’Apple ?
« Notre modèle a fait des progrès significatifs dans l'identification de différents types d'entités. Même le plus petit modèle a amélioré la précision de la reconnaissance des entités d'écran de plus de 5 % par rapport au système d'origine Compatible avec GPT-3.5 et GPT-. 4.0, notre plus petit modèle fonctionne à égalité avec GPT-4.0, tandis que le plus grand modèle le surpasse considérablement"
L'une des conclusions de l'article est que ReALM a même moins de performances que GPT-4. Avec plus de paramètres, il peut l'égaler en termes de performances et mieux fonctionner lors du traitement des instructions utilisateur dans des domaines spécifiques, ce qui fait de ReALM un système de reconnaissance d'entité pratique et efficace qui peut fonctionner côté appareil.
Pour Apple, comment appliquer cette technologie aux appareils sans affecter les performances semble être la clé. Alors que la conférence des développeurs WWDC 2024 est sur le point de se tenir le 10 juin, on s'attend généralement à ce qu'Apple démontre davantage de réalisations technologiques en matière d'intelligence artificielle dans de nouveaux systèmes tels que iOS 18.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!