Rumah > Peranti teknologi > AI > teks badan

Kerja baharu pada ramalan siri masa + model besar NLP: secara automatik menjana gesaan tersirat untuk ramalan siri masa

王林
Lepaskan: 2024-03-18 09:20:10
ke hadapan
1014 orang telah melayarinya

Hari ini saya ingin berkongsi kerja penyelidikan baru-baru ini dari Universiti Connecticut yang mencadangkan kaedah untuk menjajarkan data siri masa dengan model pemprosesan bahasa semula jadi (NLP) yang besar pada ruang terpendam untuk meningkatkan Kesan siri masa. Kunci kepada kaedah ini ialah menggunakan petunjuk spatial terpendam (prompt) untuk meningkatkan ketepatan ramalan siri masa. . 1. Latar belakang masalah

Model besar semakin digunakan dalam siri masa, terutamanya dibahagikan kepada dua kategori: kategori pertama menggunakan pelbagai data siri masa untuk melatih model besarnya sendiri dalam medan siri masa, kategori kedua secara langsung menggunakan teks yang dilatih dalam medan NLP Besar model digunakan pada siri masa. Oleh kerana siri masa adalah berbeza daripada imej dan teks, set data yang berbeza mempunyai format input dan pengedaran yang berbeza, dan terdapat masalah seperti anjakan pengedaran, menjadikannya sukar untuk melatih model bersatu menggunakan semua data siri masa. Oleh itu, semakin banyak kerja telah mula cuba menggunakan model besar NLP secara langsung untuk menyelesaikan masalah berkaitan siri masa. Kerja baharu pada ramalan siri masa + model besar NLP: secara automatik menjana gesaan tersirat untuk ramalan siri masa

Artikel ini juga memfokuskan kepada kaedah kedua untuk menyelesaikan masalah siri masa iaitu menggunakan model besar NLP. Amalan semasa sering menggunakan perihalan siri masa sebagai isyarat, tetapi tidak semua set data siri masa mengandungi maklumat ini. Di samping itu, kaedah pemprosesan data siri masa berasaskan tampalan tidak dapat mengekalkan sepenuhnya semua maklumat data siri masa.

Berdasarkan masalah di atas, artikel ini mencadangkan kaedah pemodelan baharu, idea pemodelan teras, dalam satu pihak, siri masa dipetakan ke dalam pembenaman selepas pemprosesan tokenize, sebaliknya, perwakilan ruang siri masa ini ialah diselaraskan dengan besar Pada perkataan embedding dalam model. Dengan cara ini, semasa proses ramalan siri masa, maklumat yang berkaitan dengan pembenaman perkataan sejajar boleh didapati sebagai gesaan untuk meningkatkan kesan ramalan.

Gambar

2. Kaedah pelaksanaan

Berikut memperkenalkan kaedah pelaksanaan kerja ini dari tiga aspek: pemprosesan data, penjajaran ruang terpendam dan butiran model.

Pemprosesan data: Disebabkan masalah seperti anjakan pengedaran siri masa, artikel ini melakukan penguraian satu langkah item trend dan item bermusim pada siri input. Setiap siri masa terurai diseragamkan secara berasingan dan kemudian dibahagikan kepada tompok bertindih. Setiap set patch sepadan dengan patch istilah trend, patch jangka bermusim, dan patch baki ketiga-tiga set patch ini disambungkan bersama-sama dan dimasukkan ke dalam MLP untuk mendapatkan perwakilan benam asas bagi setiap set patch.

Penjajaran ruang terpendam: Ini ialah langkah teras dalam artikel ini. Reka bentuk gesaan mempunyai impak yang besar pada prestasi model besar, dan gesaan siri masa sukar untuk direka bentuk. Oleh itu, artikel ini bercadang untuk menjajarkan perwakilan tampung siri masa dengan pembenaman perkataan model besar dalam ruang terpendam, dan kemudian mendapatkan semula pembenaman perkataan topK sebagai gesaan tersirat. Kaedah khusus ialah menggunakan pembenaman tampalan yang dijana dalam langkah sebelumnya untuk mengira persamaan kosinus dengan pembenaman perkataan dalam model bahasa, pilih pembenaman perkataan topK dan kemudian gunakan pembenaman perkataan ini sebagai gesaan untuk menyambungkannya ke hadapan benam tampalan siri masa. Memandangkan terdapat banyak benam perkataan dalam model besar, untuk mengurangkan jumlah pengiraan, kami mula-mula memetakan perkataan benam ke sebilangan kecil pusat kelompok. Kerja baharu pada ramalan siri masa + model besar NLP: secara automatik menjana gesaan tersirat untuk ramalan siri masaButiran model: Dari segi butiran model, GPT2 digunakan sebagai bahagian model bahasa Kecuali untuk parameter bahagian pembenaman kedudukan dan penormalan lapisan, selebihnya dibekukan. Selain MSE, matlamat pengoptimuman juga memperkenalkan persamaan antara pembenaman tampalan dan pembenaman gugusan topK yang diambil sebagai kekangan, yang memerlukan jarak antara keduanya sekecil mungkin. Keputusan ramalan akhir juga ialah

gambar

3 Keputusan percubaan

Artikel membandingkan kesan beberapa model siri masa yang besar, iTransformer, PatchTST dan model SOTA lain dan ramalan dalam tetingkap masa yang berbeza bagi kebanyakan data set Kedua-duanya telah mencapai keputusan yang agak baik.

GambarKerja baharu pada ramalan siri masa + model besar NLP: secara automatik menjana gesaan tersirat untuk ramalan siri masaPada masa yang sama, artikel itu juga menganalisis secara visual pembenaman melalui t-SNE Seperti yang dapat dilihat daripada rajah, pembenaman siri masa tidak mempunyai fenomena pengelompokan yang jelas sebelum penjajaran, manakala pembenaman. dijana melalui gesaan mempunyai Perubahan jelas dalam kelompok menunjukkan bahawa kaedah yang dicadangkan dalam artikel ini menggunakan penjajaran spatial teks dan siri masa, serta gesaan yang sepadan, untuk meningkatkan kualiti perwakilan siri masa.

Kerja baharu pada ramalan siri masa + model besar NLP: secara automatik menjana gesaan tersirat untuk ramalan siri masaGambar

Atas ialah kandungan terperinci Kerja baharu pada ramalan siri masa + model besar NLP: secara automatik menjana gesaan tersirat untuk ramalan siri masa. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:51cto.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan
Tentang kita Penafian Sitemap
Laman web PHP Cina:Latihan PHP dalam talian kebajikan awam,Bantu pelajar PHP berkembang dengan cepat!