Table des matières
Cook révèle Cook
Maison Périphériques technologiques IA Robot caché dans iPhone : basé sur l'architecture GPT-2, avec emoji tokenizer, développé par des anciens élèves du MIT

Robot caché dans iPhone : basé sur l'architecture GPT-2, avec emoji tokenizer, développé par des anciens élèves du MIT

Sep 20, 2023 pm 01:05 PM
ai 研究

Des passionnés ont révélé le "secret" du Transformer d'Apple

Sous l'influence de la vague des grands modèles, même le conservateur Apple mentionnera certainement "Transformer" à chaque conférence de presse

Par exemple, cette année à la WWDC, Apple a annoncé que les nouvelles versions d'iOS et de macOS auront des modèles de langage Transformer intégrés pour fournir des méthodes de saisie avec des capacités de prédiction de texte.

Robot caché dans iPhone : basé sur larchitecture GPT-2, avec emoji tokenizer, développé par des anciens élèves du MIT

Bien que les responsables d'Apple n'aient pas révélé plus d'informations, les passionnés de technologie ne peuvent pas attendre

Un gars nommé Jack Cook a ouvert avec succès un nouveau chapitre de la version bêta de macOS Sonoma et a découvert de manière inattendue beaucoup de nouvelles informations

  • En termes de modèle architecture, Cook estime que le modèle linguistique d'Apple est plus susceptible d'être basé sur GPT-2.
  • En termes de tokenizer, emoticon est très important parmi eux.
Pour plus de détails, jetons un oeil.

Basé sur l'architecture GPT-2

Tout d'abord, passons en revue les fonctions que le modèle de langage basé sur Transformer d'Apple peut réaliser sur iPhone, MacBook et autres appareils

Le contenu qui doit être réécrit est : principalement reflété dans le méthode de saisie. Avec la prise en charge du modèle de langage, la propre méthode de saisie d'Apple peut réaliser des fonctions de prédiction de mots et de correction d'erreurs

Robot caché dans iPhone : basé sur larchitecture GPT-2, avec emoji tokenizer, développé par des anciens élèves du MIT

Jack Cook l'a testé spécifiquement et a constaté que cette fonction implémente principalement la prédiction de mots simples.

Robot caché dans iPhone : basé sur larchitecture GPT-2, avec emoji tokenizer, développé par des anciens élèves du MIT
Le contenu qui doit être réécrit est : △Source : article de blog de Jack Cook
Le modèle prédit parfois plusieurs mots à venir, mais cela se limite aux situations où la sémantique de la phrase est très évidente, plus proche de Fonctionnalité de saisie semi-automatique de Gmail.

Robot caché dans iPhone : basé sur larchitecture GPT-2, avec emoji tokenizer, développé par des anciens élèves du MIT
Le contenu qui doit être réécrit est : △Source : article du blog de Jack Cook
Alors, où est installé ce modèle ? Après quelques recherches approfondies, frère Cook a déterminé :

J'ai trouvé le modèle de texte prédictif dans /System/Library/LinguisticData/RequiredAssets_en.bundle/AssetData/en.lm/unilm.bundle.

La raison est la suivante :

    De nombreux fichiers dans unilm.bundle n'existent pas dans macOS Ventura (13.5), mais n'apparaissent que dans la nouvelle version de macOS Sonoma bêta (14.0).
  1. Il existe un fichier sp.dat dans unilm.bundle, qui peut être trouvé dans les versions bêta de Ventura et de Sonoma, mais la version bêta de Sonoma a été mise à jour avec un ensemble de jetons qui ressemblent évidemment à un tokenizer.
  2. Le nombre de jetons dans sp.dat peut correspondre aux deux fichiers dans unilm.bundle - unilm_joint_cpu.espresso.shape et unilm_joint_ane.espresso.shape. Ces deux fichiers décrivent la forme de chaque couche dans le modèle Espresso/CoreML.
Autres spéculations, selon la structure du réseau décrite dans unilm_joint_cpu, je pense que le modèle Apple est construit sur la base de l'architecture GPT-2

Les principaux composants incluent l'intégration de jetons, l'encodage de position, le bloc décodeur et la couche de sortie, dans chaque Des mots similaires à "gpt2_transformer_layer_3d" apparaîtront dans chaque bloc de décodeur

Robot caché dans iPhone : basé sur larchitecture GPT-2, avec emoji tokenizer, développé par des anciens élèves du MIT
Le contenu qui doit être réécrit est : △Source : article du blog de Jack Cook

En fonction de la taille de chaque couche, j'ai également supposé que le modèle Apple représente environ 34 millions de paramètres, la taille de la couche cachée est de 512. En d'autres termes, il est plus petit que la plus petite version de GPT-2

Mon frère pense que c'est principalement parce qu'Apple veut un modèle qui ne consomme pas trop d'énergie, mais qui puisse fonctionner rapidement et fréquemment en même temps.

Et la déclaration officielle d’Apple à la WWDC est la suivante : « Chaque fois que vous cliquez sur une touche, l’iPhone exécutera le modèle une fois. »

Cependant, cela signifie également que ce modèle de prédiction de texte ne peut pas bien continuer les phrases ou les paragraphes

Robot caché dans iPhone : basé sur larchitecture GPT-2, avec emoji tokenizer, développé par des anciens élèves du MIT
Le contenu qui doit être réécrit est : △Source : article de blog de Jack Cook

En plus de l'architecture du modèle, Cook Xiao J'ai également déterré des informations sur le tokenizer

.

Il a trouvé un ensemble de 15 000 jetons dans unilm.bundle/sp.dat. Il convient de noter qu'il contient 100 emoji.

Cook révèle Cook

Bien que ce Cook ne soit pas ce Cook, mon article de blog a quand même attiré beaucoup d'attention dès sa publication

Robot caché dans iPhone : basé sur larchitecture GPT-2, avec emoji tokenizer, développé par des anciens élèves du MIT

Sur la base de ses découvertes, les internautes ont discuté avec enthousiasme de l'expérience utilisateur et des avancées d'Apple applications technologiques.

Robot caché dans iPhone : basé sur larchitecture GPT-2, avec emoji tokenizer, développé par des anciens élèves du MIT

Retour à Jack Cook lui-même. Il est diplômé du MIT avec un baccalauréat et une maîtrise en informatique, et étudie actuellement pour une maîtrise en sciences sociales de l'Internet à l'Université d'Oxford.

Il a précédemment effectué un stage chez NVIDIA, se concentrant sur la recherche de modèles de langage tels que BERT. Il est également ingénieur R&D senior pour le traitement du langage naturel au New York Times

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌
Will R.E.P.O. Vous avez un jeu croisé?
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Ligne de commande de l'arrêt CentOS Ligne de commande de l'arrêt CentOS Apr 14, 2025 pm 09:12 PM

La commande de fermeture CENTOS est arrêtée et la syntaxe est la fermeture de [options] le temps [informations]. Les options incluent: -H Arrêtez immédiatement le système; -P éteignez l'alimentation après l'arrêt; -r redémarrer; -t temps d'attente. Les temps peuvent être spécifiés comme immédiats (maintenant), minutes (minutes) ou une heure spécifique (HH: mm). Des informations supplémentaires peuvent être affichées dans les messages système.

Comment vérifier la configuration de CentOS HDFS Comment vérifier la configuration de CentOS HDFS Apr 14, 2025 pm 07:21 PM

Guide complet pour vérifier la configuration HDFS dans les systèmes CentOS Cet article vous guidera comment vérifier efficacement la configuration et l'état de l'exécution des HDF sur les systèmes CentOS. Les étapes suivantes vous aideront à bien comprendre la configuration et le fonctionnement des HDF. Vérifiez la variable d'environnement Hadoop: Tout d'abord, assurez-vous que la variable d'environnement Hadoop est correctement définie. Dans le terminal, exécutez la commande suivante pour vérifier que Hadoop est installé et configuré correctement: HadoopVersion Check HDFS Fichier de configuration: Le fichier de configuration de base de HDFS est situé dans le répertoire / etc / hadoop / conf / le répertoire, où Core-site.xml et hdfs-site.xml sont cruciaux. utiliser

Quelles sont les méthodes de sauvegarde pour Gitlab sur Centos Quelles sont les méthodes de sauvegarde pour Gitlab sur Centos Apr 14, 2025 pm 05:33 PM

La politique de sauvegarde et de récupération de GitLab dans le système CentOS afin d'assurer la sécurité et la récupérabilité des données, Gitlab on CentOS fournit une variété de méthodes de sauvegarde. Cet article introduira plusieurs méthodes de sauvegarde courantes, paramètres de configuration et processus de récupération en détail pour vous aider à établir une stratégie complète de sauvegarde et de récupération de GitLab. 1. MANUEL BACKUP Utilisez le Gitlab-RakegitLab: Backup: Créer la commande pour exécuter la sauvegarde manuelle. Cette commande sauvegarde des informations clés telles que le référentiel Gitlab, la base de données, les utilisateurs, les groupes d'utilisateurs, les clés et les autorisations. Le fichier de sauvegarde par défaut est stocké dans le répertoire / var / opt / gitlab / backups. Vous pouvez modifier / etc / gitlab

Comment est la prise en charge du GPU pour Pytorch sur Centos Comment est la prise en charge du GPU pour Pytorch sur Centos Apr 14, 2025 pm 06:48 PM

Activer l'accélération du GPU Pytorch sur le système CentOS nécessite l'installation de versions CUDA, CUDNN et GPU de Pytorch. Les étapes suivantes vous guideront tout au long du processus: CUDA et CUDNN Installation détermineront la compatibilité de la version CUDA: utilisez la commande NVIDIA-SMI pour afficher la version CUDA prise en charge par votre carte graphique NVIDIA. Par exemple, votre carte graphique MX450 peut prendre en charge CUDA11.1 ou plus. Téléchargez et installez Cudatoolkit: visitez le site officiel de Nvidiacudatoolkit et téléchargez et installez la version correspondante selon la version CUDA la plus élevée prise en charge par votre carte graphique. Installez la bibliothèque CUDNN:

Explication détaillée du principe docker Explication détaillée du principe docker Apr 14, 2025 pm 11:57 PM

Docker utilise les fonctionnalités du noyau Linux pour fournir un environnement de fonctionnement d'application efficace et isolé. Son principe de travail est le suivant: 1. Le miroir est utilisé comme modèle en lecture seule, qui contient tout ce dont vous avez besoin pour exécuter l'application; 2. Le Système de fichiers Union (UnionFS) empile plusieurs systèmes de fichiers, ne stockant que les différences, l'économie d'espace et l'accélération; 3. Le démon gère les miroirs et les conteneurs, et le client les utilise pour l'interaction; 4. Les espaces de noms et les CGROUP implémentent l'isolement des conteneurs et les limitations de ressources; 5. Modes de réseau multiples prennent en charge l'interconnexion du conteneur. Ce n'est qu'en comprenant ces concepts principaux que vous pouvez mieux utiliser Docker.

CentOS installe MySQL CentOS installe MySQL Apr 14, 2025 pm 08:09 PM

L'installation de MySQL sur CENTOS implique les étapes suivantes: Ajout de la source MySQL YUM appropriée. Exécutez la commande YUM Install MySQL-Server pour installer le serveur MySQL. Utilisez la commande mysql_secure_installation pour créer des paramètres de sécurité, tels que la définition du mot de passe de l'utilisateur racine. Personnalisez le fichier de configuration MySQL selon les besoins. Écoutez les paramètres MySQL et optimisez les bases de données pour les performances.

Comment afficher les journaux Gitlab sous Centos Comment afficher les journaux Gitlab sous Centos Apr 14, 2025 pm 06:18 PM

Un guide complet pour consulter les journaux GitLab sous Centos System Cet article vous guidera comment afficher divers journaux GitLab dans le système CentOS, y compris les journaux principaux, les journaux d'exception et d'autres journaux connexes. Veuillez noter que le chemin du fichier journal peut varier en fonction de la version Gitlab et de la méthode d'installation. Si le chemin suivant n'existe pas, veuillez vérifier le répertoire d'installation et les fichiers de configuration de GitLab. 1. Afficher le journal GitLab principal Utilisez la commande suivante pour afficher le fichier journal principal de l'application GitLabRails: Commande: sudocat / var / log / gitlab / gitlab-rails / production.log Cette commande affichera le produit

Comment faire fonctionner la formation distribuée de Pytorch sur CentOS Comment faire fonctionner la formation distribuée de Pytorch sur CentOS Apr 14, 2025 pm 06:36 PM

La formation distribuée par Pytorch sur le système CentOS nécessite les étapes suivantes: Installation de Pytorch: La prémisse est que Python et PIP sont installés dans le système CentOS. Selon votre version CUDA, obtenez la commande d'installation appropriée sur le site officiel de Pytorch. Pour la formation du processeur uniquement, vous pouvez utiliser la commande suivante: pipinstalltorchtorchVisionTorChaudio Si vous avez besoin d'une prise en charge du GPU, assurez-vous que la version correspondante de CUDA et CUDNN est installée et utilise la version Pytorch correspondante pour l'installation. Configuration de l'environnement distribué: la formation distribuée nécessite généralement plusieurs machines ou des GPU multiples uniques. Lieu

See all articles