Penyesuaian domain ialah kaedah penting untuk menyelesaikan pembelajaran pemindahan Kaedah penyesuaian domain semasa bergantung pada data domain asal dan domain sasaran untuk latihan segerak. Apabila data domain sumber tidak tersedia dan data domain sasaran tidak dapat dilihat sepenuhnya, latihan masa ujian menjadi kaedah penyesuaian domain baharu. Penyelidikan semasa mengenai Latihan Masa Ujian (TTT) secara meluas menggunakan pembelajaran penyeliaan kendiri, pembelajaran kontrastif, latihan kendiri dan kaedah lain Walau bagaimanapun, cara mentakrifkan TTT dalam persekitaran sebenar sering diabaikan, mengakibatkan kekurangan perbandingan antara kaedah yang berbeza.
Baru-baru ini, Universiti Teknologi China Selatan, pasukan A*STAR dan Makmal Pengcheng bersama-sama mencadangkan kriteria pengelasan sistematik untuk masalah TTT, dengan membezakan sama ada kaedah tersebut mempunyai keupayaan inferens berjujukan (Inferens Berjujukan ) dan sama ada objektif latihan domain sumber perlu diubah suai, kaedah semasa dikelaskan secara terperinci. Pada masa yang sama, kaedah berdasarkan pengelompokan berlabuh bagi data domain sasaran dicadangkan, yang mencapai ketepatan pengelasan tertinggi di bawah pelbagai klasifikasi TTT Artikel ini menunjukkan arah yang betul untuk penyelidikan seterusnya tentang TTT dan mengelakkan kekeliruan dalam tetapan eksperimen tidak setanding. Kertas penyelidikan telah diterima untuk NeurIPS 2022.
Penulis mendapati terdapat kekeliruan dalam masyarakat tentang definisi TTT yang membawa kepada perbandingan yang tidak adil. Makalah ini mengklasifikasikan kaedah TTT sedia ada berdasarkan dua faktor utama:
Untuk data yang muncul dalam format penstriman dan perlu membuat ramalan tepat pada masanya pada data yang sedang berlaku, Ia dipanggil Penyesuaian Satu Pas; untuk protokol lain yang tidak memenuhi tetapan di atas, ia dipanggil Penyesuaian Berbilang Pas Model mungkin perlu dikemas kini pada keseluruhan set ujian untuk berbilang pusingan , dan kemudian membuat ramalan inferens dari awal hingga akhir .
Selain klasifikasi kaedah TTT berbeza di atas, kertas kerja ini juga mencadangkan dua teknologi untuk menjadikan sTTT lebih berkesan dan tepat:
Kertas ini dibahagikan kepada empat bahagian untuk menerangkan kaedah yang dicadangkan, iaitu 1) memperkenalkan sauh latihan masa ujian (TTT) modul pengelompokan tetap, seperti yang ditunjukkan dalam bahagian Pengelompokan Berlabuh dalam Rajah 1) memperkenalkan beberapa strategi untuk menapis label pseudo, seperti yang ditunjukkan dalam bahagian Penapis Label Pseudo dalam Rajah 1) berbeza daripada penggunaan jarak L2 dalam TTT++ [2] Untuk mengukur jarak antara dua taburan, penulis menggunakan perbezaan KL untuk mengukur jarak antara dua taburan ciri global 4) Memperkenalkan kaedah lelaran kemas kini yang berkesan untuk statistik ciri dalam proses latihan masa ujian (TTT). Akhir sekali, bahagian kelima memberikan kod proses keseluruhan algoritma.
Dalam bahagian pertama, dalam pengelompokan berlabuh, pengarang mula-mula menggunakan campuran Gaussian untuk memodelkan ciri-ciri domain sasaran, di mana setiap Gaussian komponen mewakili Kelompok yang ditemui. Penulis kemudiannya menggunakan pengedaran setiap kategori dalam domain sumber sebagai titik utama untuk pengedaran dalam domain sasaran untuk pemadanan. Dengan cara ini, ciri data ujian boleh membentuk kelompok pada masa yang sama, dan kelompok dikaitkan dengan kategori domain sumber, dengan itu mencapai generalisasi kepada domain sasaran. Secara ringkasnya, ciri domain sumber dan domain sasaran dimodelkan mengikut maklumat kategori:
dan kemudian mengukur kedua-duanya melalui perbezaan KL Campurkan jarak taburan Gaussian dan capai padanan dua ciri domain dengan mengurangkan perbezaan KL. Walau bagaimanapun, tiada penyelesaian bentuk tertutup untuk menyelesaikan secara langsung perbezaan KL pada dua taburan Gaussian bercampur, yang menjadikannya mustahil untuk menggunakan kaedah pengoptimuman kecerunan yang berkesan. Dalam makalah ini, penulis memperuntukkan bilangan kluster yang sama dalam domain sumber dan sasaran, dan setiap kluster domain sasaran diperuntukkan kepada kluster domain sumber, supaya penyelesaian perbezaan KL bagi keseluruhan Gaussian bercampur boleh ditukar menjadi setiap pasangan Jumlah perbezaan KL antara Gaussians. Formula berikut:
Penyelesaian bentuk tertutup bagi formula di atas ialah:
Dalam Formula 2, parameter kluster domain sumber boleh dikumpulkan di luar talian, dan kerana hanya data statistik ringan digunakan, ia tidak akan menyebabkan isu kebocoran privasi dan hanya menggunakan sejumlah kecil pengkomputeran dan overhed storan. Untuk pembolehubah dalam domain sasaran, penggunaan pseudo-label terlibat Untuk tujuan ini, penulis mereka strategi penapisan pseudo-label yang berkesan dan ringan.
Bahagian kedua strategi penapisan label pseudo terbahagi terutamanya kepada dua bahagian:
1) Penapisan ramalan ketekalan dalam siri masa:
2) Penapisan berdasarkan kebarangkalian posterior:
Akhir sekali , gunakan sampel yang ditapis untuk menyelesaikan statistik kluster domain sasaran:
Bahagian 3: Dalam pengelompokan berlabuh, beberapa sampel yang ditapis tidak mengambil bahagian dalam anggaran domain sasaran. Penulis juga melakukan penjajaran ciri global pada semua sampel ujian, serupa dengan pendekatan kepada kelompok dalam kelompok berlabuh Di sini semua sampel dianggap sebagai kelompok keseluruhan dan
ditakrifkan dalam domain sumber dan sasaran. domain masing-masing. >Keempat Tiga bahagian di atas semuanya memperkenalkan beberapa kaedah penjajaran domain, tetapi dalam proses TTT, tidak mudah untuk menganggarkan taburan domain sasaran kerana kami tidak dapat memerhati data keseluruhan domain sasaran. Dalam kerja canggih, TTT++ [2] menggunakan baris gilir ciri untuk menyimpan sampel separa lepas untuk mengira taburan setempat untuk menganggarkan taburan keseluruhan. Tetapi ini bukan sahaja membawa overhed memori, tetapi juga membawa kepada pertukaran antara ketepatan dan ingatan. Dalam kertas kerja ini, penulis mencadangkan kaedah berulang untuk mengemas kini statistik untuk mengurangkan overhed memori. Formula kemas kini berulang khusus adalah seperti berikut:
Secara umum, keseluruhan algoritma adalah seperti yang ditunjukkan dalam Algoritma 1:
Seperti yang ditunjukkan dalam Jadual 1, TTT++[2] muncul di bawah kedua-dua protokol N-O dan Y-O kerana TTT++[2] mempunyai cawangan penyeliaan diri tambahan Kami menggunakan N-O Kehilangan diri -cawangan yang diselia tidak akan ditambah di bawah protokol, manakala kehilangan molekul ini boleh digunakan secara normal di bawah Y-O. TTAC juga menggunakan cawangan seliaan sendiri yang sama seperti TTT++[2] di bawah Y-O. Seperti yang dapat dilihat daripada jadual, TTAC telah mencapai keputusan yang optimum di bawah semua protokol TTT dan semua set data pada kedua-dua set data CIFAR10-C dan CIFAR100-C, TTAC telah mencapai peningkatan lebih daripada 3%. Jadual 2 - Jadual 5 menunjukkan data masing-masing pada ImageNet-C, CIFAR10.1, dan VisDA telah mencapai keputusan terbaik.
Selain itu , Penulis menjalankan eksperimen ablasi yang ketat di bawah pelbagai protokol TTT pada masa yang sama, dan dengan jelas melihat peranan setiap komponen, seperti yang ditunjukkan dalam Jadual 6. Pertama sekali, daripada perbandingan di antara L2 Dist dan KLD, dapat dilihat bahawa penggunaan KL divergence untuk mengukur kedua-dua taburan mempunyai kesan yang lebih baik, kedua, didapati bahawa jika Anchored Clustering atau penyeliaan pseudo-label digunakan sahaja, maka peningkatan hanya 14%, tetapi jika digabungkan Dengan Penapis Label Berlabuh dan Pseudo Label, anda boleh melihat peningkatan prestasi yang ketara sebanyak 29.15% -> 11.33%. Ini juga menunjukkan keperluan dan gabungan yang berkesan bagi setiap komponen.
Akhir sekali, pengarang menganalisis sepenuhnya TTAC daripada lima dimensi pada akhir teks, termasuk prestasi kumulatif di bawah sTTT (N-O) dan visualisasi TSNE bagi ciri TTAC , analisis TTT bebas domain sumber, analisis baris gilir sampel ujian dan pusingan kemas kini, overhed pengiraan diukur dalam masa jam dinding. Terdapat lebih banyak bukti dan analisis yang menarik ditunjukkan dalam lampiran artikel. Artikel ini hanya memperkenalkan secara ringkas perkara sumbangan kerja TTAC ini: pengelasan dan perbandingan kaedah TTT sedia ada, kaedah yang dicadangkan dan pelbagai Eksperimen di bawah Klasifikasi protokol TTT. Akan ada perbincangan dan analisis yang lebih terperinci dalam kertas dan lampiran. Kami berharap kerja ini akan memberikan penanda aras yang adil untuk kaedah TTT dan kajian masa depan harus membandingkan dalam protokol masing-masing. 4 Ringkasan
Atas ialah kandungan terperinci Bagaimana untuk menentukan latihan fasa ujian dengan betul? Kaedah pengelompokan inferens berjujukan dan penyesuaian domain. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!