Table des matières
iTransformer
Expériences et résultats
Maison Périphériques technologiques IA Transformateur revisité : l'inversion est plus efficace, un nouveau SOTA pour la prédiction du monde réel émerge

Transformateur revisité : l'inversion est plus efficace, un nouveau SOTA pour la prédiction du monde réel émerge

Nov 05, 2023 pm 05:13 PM
ai 论文

Dans la prévision de séries chronologiques, Transformer a démontré sa puissante capacité à décrire les dépendances et à extraire des représentations à plusieurs niveaux. Cependant, certains chercheurs ont remis en question l’efficacité des prédicteurs basés sur Transformer. De tels prédicteurs intègrent généralement plusieurs variables du même horodatage dans des canaux indiscernables et se concentrent sur ces horodatages pour capturer les dépendances temporelles. Les chercheurs ont découvert que les couches linéaires simples qui prennent en compte les relations numériques plutôt que les relations sémantiques surpassaient les transformateurs complexes en termes de performances et d'efficacité. Dans le même temps, l’importance de garantir l’indépendance des variables et d’exploiter les informations mutuelles fait l’objet d’une attention croissante dans les recherches récentes. Ces études modélisent explicitement des corrélations multivariées pour obtenir des prédictions précises. Cependant, il est encore difficile d'atteindre cet objectif sans renverser l'architecture commune de Transformer

Compte tenu de la controverse provoquée par les prédicteurs basés sur Transformer, les chercheurs réfléchissent à la raison pour laquelle Transformer est utilisé dans la prédiction de séries chronologiques. Les performances ne sont même pas aussi bonnes. comme modèles linéaires dans de nombreux autres domaines, mais il domine dans de nombreux autres domaines

Récemment, un nouvel article de l'Université Tsinghua propose une perspective différente - les performances de Transformer ne sont pas inhérentes, mais dues à la mauvaise application du schéma. aux données de séries chronologiques.

Transformateur revisité : linversion est plus efficace, un nouveau SOTA pour la prédiction du monde réel émerge

Le lien vers l'article est : https://arxiv.org/pdf/2310.06625.pdf

La structure existante des prédicteurs basés sur Transformer peut ne pas être adaptée à la prévision de séries chronologiques multivariées. Le côté gauche de la figure 2 montre que les points au même pas de temps représentent des significations physiques différentes, mais les résultats de mesure sont incohérents. Ces points sont intégrés dans un jeton et les corrélations multivariées sont ignorées. De plus, dans le monde réel, les pas de temps individuels sont rarement étiquetés avec des informations utiles en raison du désalignement des champs récepteurs locaux et des horodatages à des moments multivariés. De plus, bien que la variation de séquence soit significativement affectée par l’ordre des séquences, le mécanisme d’attention variable dans la dimension temporelle n’a pas été entièrement adopté. Par conséquent, la capacité du Transformer à capturer des représentations de séquences de base et à décrire des corrélations multivariées est affaiblie, limitant sa capacité et sa capacité de généralisation sur différentes données de séries chronologiques

Transformateur revisité : linversion est plus efficace, un nouveau SOTA pour la prédiction du monde réel émerge

Concernant la conversion de plusieurs variables à chaque pas de temps Pour souligner l'irrationalité de l'intégration un jeton (temporel), les chercheurs partent de la perspective inverse des séries chronologiques et intègrent indépendamment la série chronologique entière de chaque variable dans un jeton (variable). Il s'agit d'un cas extrême de patch pour étendre le champ de réception local. Grâce à l'inversion, le jeton intégré agrège la représentation globale de la séquence, qui peut être plus centrée sur les variables et mieux utiliser le mécanisme d'attention pour l'association multi-variable. Dans le même temps, les réseaux feedforward peuvent habilement apprendre des représentations généralisées de différentes variables codées par n’importe quelle séquence d’analyse et les décoder pour prédire les séquences futures.

Les chercheurs ont souligné que pour la prédiction de séries chronologiques, Transformer n'est pas invalide, mais son utilisation est inappropriée. Dans cet article, les chercheurs ont réexaminé la structure de Transformer et ont recommandé iTransformer comme pilier de base de la prédiction des séries chronologiques. Ils intègrent chaque série temporelle sous forme de jeton variable, adoptent un mécanisme d'attention de corrélation multivariable et utilisent un réseau de rétroaction pour coder la séquence. Les résultats expérimentaux montrent que l'iTransformer proposé atteint le niveau de pointe dans le benchmark de prédiction réel (Figure 1) et résout de manière inattendue les problèmes rencontrés par les prédicteurs basés sur Transformer

Transformateur revisité : linversion est plus efficace, un nouveau SOTA pour la prédiction du monde réel émerge

En résumé, cet article Les contributions sont les suivantes :

  • Le chercheur a réfléchi à l'architecture de Transformer et a constaté que les capacités du composant natif de Transformer dans les séries chronologiques n'ont pas été entièrement développées.
  • L'iTransformer proposé dans cet article traite les séries temporelles indépendantes comme des jetons, capture les corrélations multivariables grâce à l'auto-attention et utilise la normalisation des couches et les modules de réseau à action directe pour apprendre de meilleures représentations globales de séquence pour la prédiction des séries chronologiques.
  • Grâce à des expériences, iTransformer atteint SOTA sur des références de prédiction du monde réel. Les chercheurs ont analysé le module d'inversion et les choix architecturaux, soulignant la direction des améliorations futures des prédicteurs basés sur Transformer.

iTransformer

Dans la prévision de séries chronologiques multivariées, compte tenu des observations historiques :


Transformateur revisité : linversion est plus efficace, un nouveau SOTA pour la prédiction du monde réel émerge


En utilisant T pas de temps et N variables, le chercheur prédit S pas de temps dans le futur : Transformateur revisité : linversion est plus efficace, un nouveau SOTA pour la prédiction du monde réel émerge. Pour plus de commodité, notons que Transformateur revisité : linversion est plus efficace, un nouveau SOTA pour la prédiction du monde réel émerge représente les variables multivariées enregistrées simultanément au pas de temps t, et Transformateur revisité : linversion est plus efficace, un nouveau SOTA pour la prédiction du monde réel émerge représente la série chronologique entière avec chaque variable indexée par n. Il convient de noter que dans le monde réel, en raison de la latence du système des moniteurs et des ensembles de données mal organisés, Transformateur revisité : linversion est plus efficace, un nouveau SOTA pour la prédiction du monde réel émerge peut ne pas contenir de points temporels avec essentiellement le même horodatage. Les éléments de

Transformateur revisité : linversion est plus efficace, un nouveau SOTA pour la prédiction du monde réel émerge peuvent différer les uns des autres dans les mesures physiques et les distributions statistiques, et les variables Transformateur revisité : linversion est plus efficace, un nouveau SOTA pour la prédiction du monde réel émerge partagent souvent ces données.


La variante Transformer équipée de l'architecture proposée dans cet article, appelée iTransformer, ne propose fondamentalement pas d'exigences plus spécifiques pour la variante Transformer, sauf que le mécanisme d'attention doit être adapté à la modélisation de corrélation multivariée. Par conséquent, un ensemble efficace de mécanismes d’attention peut servir de plug-in pour réduire la complexité des associations lorsque le nombre de variables augmente.

iTransformer est présenté dans la quatrième image, utilisant une architecture d'encodeur Transformer plus simple, qui comprend l'intégration, la projection et les blocs Transformer

Transformateur revisité : linversion est plus efficace, un nouveau SOTA pour la prédiction du monde réel émerge

Expériences et résultats

Les chercheurs ont utilisé iTransformer dans diverses évaluations complètes a été menée dans diverses applications de prévision de séries chronologiques, confirmant la polyvalence du cadre et étudiant plus en détail l'effet de l'inversion des responsabilités du composant Transformer pour des dimensions spécifiques de séries chronologiques

Les chercheurs ont largement inclus 6 données réelles dans l'expérience Ensembles de données mondiaux, y compris ETT, météo, électricité, ensembles de données de trafic, ensembles de données sur l'énergie solaire et ensembles de données PEMS. Pour des informations détaillées sur l'ensemble de données, veuillez vous référer au texte original

Le contenu réécrit est le suivant : Les résultats de la prédiction

sont présentés dans le tableau 1, le rouge indiquant l'optimal et le souligné indiquant l'optimal. Plus le MSE/MAE est bas, plus le contenu réécrit est : plus les résultats de prédiction sont précis. L'iTransformer proposé dans cet article atteint les performances SOTA. Le composant natif Transformer est capable de modélisation temporelle et de corrélation multivariée, et l'architecture inversée proposée peut résoudre efficacement des scénarios de prédiction de séries chronologiques du monde réel.

Transformateur revisité : linversion est plus efficace, un nouveau SOTA pour la prédiction du monde réel émerge

Ce qui doit être réécrit est : L'universalité d'iTransformer

Les chercheurs qui ont appliqué ce cadre à Transformer et à ses variantes pour évaluer les iTransformers ont découvert que ces variantes résolvaient souvent le problème de complexité secondaire du soi -mécanisme d'attention, notamment Reformer, Informer, Flowformer et FlashAttention. Les chercheurs ont également découvert que le simple fait d'inverser la perspective peut améliorer les performances des prédicteurs basés sur Transformer, améliorer l'efficacité, généraliser à des variables invisibles et mieux utiliser les données d'observation historiques.

Le tableau 2 montre les transformateurs et les iTransformers correspondants évalués. Il convient de noter que le framework continue d’améliorer divers Transformers. Dans l'ensemble, les Transformers se sont améliorés en moyenne de 38,9 %, les Reformers de 36,1 % en moyenne, les Informers de 28,5 % en moyenne, les Flowformers de 16,8 % en moyenne et les Flashformers de 32,2 % en moyenne.

Un autre facteur est qu'iTransformer peut être largement utilisé dans les prédicteurs basés sur Transformer, car il adopte la structure inversée du mécanisme d'attention dans la dimension variable, introduit une attention efficace avec une complexité linéaire et résout fondamentalement les problèmes d'efficacité dus à 6 variables. Ce problème est courant dans les applications du monde réel, mais peut être consommateur de ressources pour Channel Independent

Transformateur revisité : linversion est plus efficace, un nouveau SOTA pour la prédiction du monde réel émerge

Pour tester l'hypothèse, les chercheurs ont comparé iTransformer avec une autre stratégie de généralisation : modèle pour toutes les variantes. Comme le montre la figure 5, l'erreur de généralisation de Channel Independent (CI-Transformers) peut augmenter de manière significative, tandis que l'augmentation de l'erreur de prédiction d'iTransformer est beaucoup plus faible.

Transformateur revisité : linversion est plus efficace, un nouveau SOTA pour la prédiction du monde réel émerge

Étant donné que les responsabilités des réseaux d'attention et de rétroaction sont inversées, les performances de Transformers et d'iTransformer à mesure que la longueur de recherche augmente sont évaluées dans la figure 6. Il valide la justification de l'exploitation du MLP dans la dimension temporelle, c'est-à-dire que les transformateurs peuvent bénéficier de fenêtres d'analyse étendues, ce qui permet d'obtenir des prédictions plus précises.

Transformateur revisité : linversion est plus efficace, un nouveau SOTA pour la prédiction du monde réel émerge

Analyse du modèle

Afin de vérifier la rationalité du composant du transformateur, les chercheurs ont mené des expériences d'ablation détaillées, y compris des expériences de remplacement de composants (Remplacer) et de retrait de composants (sans). Le tableau 3 répertorie les résultats expérimentaux.

Transformateur revisité : linversion est plus efficace, un nouveau SOTA pour la prédiction du monde réel émerge

Pour plus de détails, veuillez vous référer à l'article original.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌
Will R.E.P.O. Vous avez un jeu croisé?
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Ligne de commande de l'arrêt CentOS Ligne de commande de l'arrêt CentOS Apr 14, 2025 pm 09:12 PM

La commande de fermeture CENTOS est arrêtée et la syntaxe est la fermeture de [options] le temps [informations]. Les options incluent: -H Arrêtez immédiatement le système; -P éteignez l'alimentation après l'arrêt; -r redémarrer; -t temps d'attente. Les temps peuvent être spécifiés comme immédiats (maintenant), minutes (minutes) ou une heure spécifique (HH: mm). Des informations supplémentaires peuvent être affichées dans les messages système.

Quelles sont les méthodes de sauvegarde pour Gitlab sur Centos Quelles sont les méthodes de sauvegarde pour Gitlab sur Centos Apr 14, 2025 pm 05:33 PM

La politique de sauvegarde et de récupération de GitLab dans le système CentOS afin d'assurer la sécurité et la récupérabilité des données, Gitlab on CentOS fournit une variété de méthodes de sauvegarde. Cet article introduira plusieurs méthodes de sauvegarde courantes, paramètres de configuration et processus de récupération en détail pour vous aider à établir une stratégie complète de sauvegarde et de récupération de GitLab. 1. MANUEL BACKUP Utilisez le Gitlab-RakegitLab: Backup: Créer la commande pour exécuter la sauvegarde manuelle. Cette commande sauvegarde des informations clés telles que le référentiel Gitlab, la base de données, les utilisateurs, les groupes d'utilisateurs, les clés et les autorisations. Le fichier de sauvegarde par défaut est stocké dans le répertoire / var / opt / gitlab / backups. Vous pouvez modifier / etc / gitlab

Comment vérifier la configuration de CentOS HDFS Comment vérifier la configuration de CentOS HDFS Apr 14, 2025 pm 07:21 PM

Guide complet pour vérifier la configuration HDFS dans les systèmes CentOS Cet article vous guidera comment vérifier efficacement la configuration et l'état de l'exécution des HDF sur les systèmes CentOS. Les étapes suivantes vous aideront à bien comprendre la configuration et le fonctionnement des HDF. Vérifiez la variable d'environnement Hadoop: Tout d'abord, assurez-vous que la variable d'environnement Hadoop est correctement définie. Dans le terminal, exécutez la commande suivante pour vérifier que Hadoop est installé et configuré correctement: HadoopVersion Check HDFS Fichier de configuration: Le fichier de configuration de base de HDFS est situé dans le répertoire / etc / hadoop / conf / le répertoire, où Core-site.xml et hdfs-site.xml sont cruciaux. utiliser

Quelles sont les méthodes de réglage des performances de Zookeeper sur Centos Quelles sont les méthodes de réglage des performances de Zookeeper sur Centos Apr 14, 2025 pm 03:18 PM

Le réglage des performances de Zookeeper sur CentOS peut commencer à partir de plusieurs aspects, notamment la configuration du matériel, l'optimisation du système d'exploitation, le réglage des paramètres de configuration, la surveillance et la maintenance, etc. Assez de mémoire: allouez suffisamment de ressources de mémoire à Zookeeper pour éviter la lecture et l'écriture de disques fréquents. CPU multi-core: utilisez un processeur multi-core pour vous assurer que Zookeeper peut le traiter en parallèle.

Comment entraîner le modèle Pytorch sur Centos Comment entraîner le modèle Pytorch sur Centos Apr 14, 2025 pm 03:03 PM

Une formation efficace des modèles Pytorch sur les systèmes CentOS nécessite des étapes, et cet article fournira des guides détaillés. 1. Préparation de l'environnement: Installation de Python et de dépendance: le système CentOS préinstalle généralement Python, mais la version peut être plus ancienne. Il est recommandé d'utiliser YUM ou DNF pour installer Python 3 et Mettez PIP: sudoyuMupDatePython3 (ou sudodnfupdatepython3), pip3install-upradepip. CUDA et CUDNN (accélération GPU): Si vous utilisez Nvidiagpu, vous devez installer Cudatool

Comment est la prise en charge du GPU pour Pytorch sur Centos Comment est la prise en charge du GPU pour Pytorch sur Centos Apr 14, 2025 pm 06:48 PM

Activer l'accélération du GPU Pytorch sur le système CentOS nécessite l'installation de versions CUDA, CUDNN et GPU de Pytorch. Les étapes suivantes vous guideront tout au long du processus: CUDA et CUDNN Installation détermineront la compatibilité de la version CUDA: utilisez la commande NVIDIA-SMI pour afficher la version CUDA prise en charge par votre carte graphique NVIDIA. Par exemple, votre carte graphique MX450 peut prendre en charge CUDA11.1 ou plus. Téléchargez et installez Cudatoolkit: visitez le site officiel de Nvidiacudatoolkit et téléchargez et installez la version correspondante selon la version CUDA la plus élevée prise en charge par votre carte graphique. Installez la bibliothèque CUDNN:

Explication détaillée du principe docker Explication détaillée du principe docker Apr 14, 2025 pm 11:57 PM

Docker utilise les fonctionnalités du noyau Linux pour fournir un environnement de fonctionnement d'application efficace et isolé. Son principe de travail est le suivant: 1. Le miroir est utilisé comme modèle en lecture seule, qui contient tout ce dont vous avez besoin pour exécuter l'application; 2. Le Système de fichiers Union (UnionFS) empile plusieurs systèmes de fichiers, ne stockant que les différences, l'économie d'espace et l'accélération; 3. Le démon gère les miroirs et les conteneurs, et le client les utilise pour l'interaction; 4. Les espaces de noms et les CGROUP implémentent l'isolement des conteneurs et les limitations de ressources; 5. Modes de réseau multiples prennent en charge l'interconnexion du conteneur. Ce n'est qu'en comprenant ces concepts principaux que vous pouvez mieux utiliser Docker.

Comment choisir la version Pytorch sous Centos Comment choisir la version Pytorch sous Centos Apr 14, 2025 pm 02:51 PM

Lors de la sélection d'une version Pytorch sous CentOS, les facteurs clés suivants doivent être pris en compte: 1. CUDA Version Compatibilité GPU Prise en charge: si vous avez NVIDIA GPU et que vous souhaitez utiliser l'accélération GPU, vous devez choisir Pytorch qui prend en charge la version CUDA correspondante. Vous pouvez afficher la version CUDA prise en charge en exécutant la commande nvidia-SMI. Version CPU: Si vous n'avez pas de GPU ou que vous ne souhaitez pas utiliser de GPU, vous pouvez choisir une version CPU de Pytorch. 2. Version Python Pytorch

See all articles