Cet article est réimprimé avec l'autorisation d'AI New Media Qubit (ID de compte public : QbitAI). Veuillez contacter la source pour la réimpression.
Tout à l'heure, le Ph.D. de l'UC Berkeley et jeune professeur You Yang, président de l'Université nationale de Singapour, a publié la dernière nouvelle :
a remporté le AAAI 2023Outstanding Paper Award (Distinguished Paper) !
Les résultats de la recherche ont augmenté la vitesse d'entraînement du modèle de 72 fois en une seule fois.
Même les internautes ont exprimé leur émotion après avoir lu le journal :
De 12 heures à 10 minutes, vache tendre(toi vache)ah !
Le Dr You Yang a déjà établi le record du monde de vitesse d'entraînement ImageNet et BERT pendant ses études.
Les algorithmes qu'il a conçus sont également largement utilisés par des géants de la technologie tels que Google, Microsoft, Intel et NVIDIA.
Maintenant, il est retourné en Chine pour démarrer une entreprise Luchen TechnologyAprès un an et demi, quel type d'algorithme lui et son équipe ont-ils mis au point pour remporter un tel honneur lors de la plus haute conférence sur l'IA ?
Dans cette étude, l'équipe de You Yang a proposé une stratégie d'optimisation CowClip, qui peut accélérer la formation en grands lots de modèles de prédiction CTR.
CTR(taux de clics)Le modèle de prédiction est un algorithme couramment utilisé dans les scénarios de recommandation personnalisés.
Il a généralement besoin d'apprendre les commentaires des utilisateurs (clics, collections, achats, etc.) , et la quantité de données générées en ligne chaque jour est sans précédent.
Il est donc crucial d'accélérer la formation des modèles de prédiction CTR.
De manière générale, la formation par lots est utilisée pour augmenter la vitesse d'entraînement. Cependant, si la taille du lot est trop grande, la précision du modèle sera réduite.
Grâce à une analyse mathématique, l'équipe a prouvé que le taux d'apprentissage des fonctionnalités peu fréquentes ne devrait pas être augmenté lors de l'expansion du lot.
Avec leur CowClip proposé, la taille du lot peut être augmentée facilement et efficacement. En testant sur 4 modèles de prédiction CTR et 2 ensembles de données, l'équipe a réussi à augmenter la taille du lot d'origine128 fois sans entraîner de perte de précision.
Surtout sur DeepFM, CowClip obtient une amélioration de plus de 0,1 % de l'AUC en augmentant la taille du lot de 1K à 128K. Et sur un seul GPU V100, le temps d'entraînement est réduit de 12 heures d'origine à seulement 10 minutes, et la vitesse d'entraînement est augmentée72 fois.
Actuellement, le code du projet est open source. L’équipe affirme que l’algorithme convient également à des tâches telles que la PNL. Présentation de l'équipeLe premier auteur de cet article est le doctorant de You YangZheng Changwei Il est diplômé de la classe Computer Elite de l'Université de Nanjing avec un baccalauréat et un doctorat de l'Université nationale de Singapour.
Ses axes de recherche incluent l'apprentissage automatique, la vision par ordinateur et le calcul haute performance.Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!