Jadual Kandungan
1 🎜>Kejayaan pembelajaran mendalam terutamanya disebabkan oleh jumlah data berlabel yang besar dan andaian bahawa set latihan dan set ujian adalah bebas dan diedarkan secara serupa. Secara umum, apabila perlu untuk melatih data sintetik dan kemudian menguji data sebenar, andaian di atas tidak dapat dipenuhi, yang juga dipanggil anjakan domain. Untuk mengurangkan masalah ini, Penyesuaian Domain (DA) telah dilahirkan. Kerja DA sedia ada sama ada memerlukan akses kepada data daripada sumber dan domain sasaran semasa latihan, atau melatih berbilang domain secara serentak. Yang pertama memerlukan model untuk sentiasa mempunyai akses kepada data domain sumber semasa latihan penyesuaian, manakala yang kedua memerlukan pengiraan yang lebih mahal. Untuk mengurangkan pergantungan pada data domain sumber, data domain sumber tidak boleh diakses kerana isu privasi atau overhed storan Penyesuaian Domain Bebas Sumber (SFDA) tanpa data domain sumber menyelesaikan masalah penyesuaian domain data domain sumber yang tidak boleh diakses. Penulis mendapati bahawa SFDA perlu dilatih pada keseluruhan set data sasaran untuk berbilang pusingan untuk mencapai penumpuan SFDA tidak dapat menyelesaikan masalah sedemikian apabila menghadapi data penstriman dan keperluan untuk membuat ramalan inferens tepat pada masanya. Tetapan yang lebih realistik ini yang memerlukan penyesuaian tepat pada masanya untuk menstrim data dan membuat ramalan inferens dipanggil Latihan Masa Ujian (TTT) atau Penyesuaian Masa Ujian (TTA).
2. Pengenalan kaedah
4 Ringkasan
Rumah Peranti teknologi AI Bagaimana untuk menentukan latihan fasa ujian dengan betul? Kaedah pengelompokan inferens berjujukan dan penyesuaian domain

Bagaimana untuk menentukan latihan fasa ujian dengan betul? Kaedah pengelompokan inferens berjujukan dan penyesuaian domain

Apr 11, 2023 am 09:11 AM
Model kereta api

Penyesuaian domain ialah kaedah penting untuk menyelesaikan pembelajaran pemindahan Kaedah penyesuaian domain semasa bergantung pada data domain asal dan domain sasaran untuk latihan segerak. Apabila data domain sumber tidak tersedia dan data domain sasaran tidak dapat dilihat sepenuhnya, latihan masa ujian menjadi kaedah penyesuaian domain baharu. Penyelidikan semasa mengenai Latihan Masa Ujian (TTT) secara meluas menggunakan pembelajaran penyeliaan kendiri, pembelajaran kontrastif, latihan kendiri dan kaedah lain Walau bagaimanapun, cara mentakrifkan TTT dalam persekitaran sebenar sering diabaikan, mengakibatkan kekurangan perbandingan antara kaedah yang berbeza.

Baru-baru ini, Universiti Teknologi China Selatan, pasukan A*STAR dan Makmal Pengcheng bersama-sama mencadangkan kriteria pengelasan sistematik untuk masalah TTT, dengan membezakan sama ada kaedah tersebut mempunyai keupayaan inferens berjujukan (Inferens Berjujukan ) dan sama ada objektif latihan domain sumber perlu diubah suai, kaedah semasa dikelaskan secara terperinci. Pada masa yang sama, kaedah berdasarkan pengelompokan berlabuh bagi data domain sasaran dicadangkan, yang mencapai ketepatan pengelasan tertinggi di bawah pelbagai klasifikasi TTT Artikel ini menunjukkan arah yang betul untuk penyelidikan seterusnya tentang TTT dan mengelakkan kekeliruan dalam tetapan eksperimen tidak setanding. Kertas penyelidikan telah diterima untuk NeurIPS 2022.

Bagaimana untuk menentukan latihan fasa ujian dengan betul? Kaedah pengelompokan inferens berjujukan dan penyesuaian domain

  • Kertas: https://arxiv.org/abs/2206.02721
  • Kod: https://github.com/Gorilla-Lab-SCUT/TTAC

1 🎜>Kejayaan pembelajaran mendalam terutamanya disebabkan oleh jumlah data berlabel yang besar dan andaian bahawa set latihan dan set ujian adalah bebas dan diedarkan secara serupa. Secara umum, apabila perlu untuk melatih data sintetik dan kemudian menguji data sebenar, andaian di atas tidak dapat dipenuhi, yang juga dipanggil anjakan domain. Untuk mengurangkan masalah ini, Penyesuaian Domain (DA) telah dilahirkan. Kerja DA sedia ada sama ada memerlukan akses kepada data daripada sumber dan domain sasaran semasa latihan, atau melatih berbilang domain secara serentak. Yang pertama memerlukan model untuk sentiasa mempunyai akses kepada data domain sumber semasa latihan penyesuaian, manakala yang kedua memerlukan pengiraan yang lebih mahal. Untuk mengurangkan pergantungan pada data domain sumber, data domain sumber tidak boleh diakses kerana isu privasi atau overhed storan Penyesuaian Domain Bebas Sumber (SFDA) tanpa data domain sumber menyelesaikan masalah penyesuaian domain data domain sumber yang tidak boleh diakses. Penulis mendapati bahawa SFDA perlu dilatih pada keseluruhan set data sasaran untuk berbilang pusingan untuk mencapai penumpuan SFDA tidak dapat menyelesaikan masalah sedemikian apabila menghadapi data penstriman dan keperluan untuk membuat ramalan inferens tepat pada masanya. Tetapan yang lebih realistik ini yang memerlukan penyesuaian tepat pada masanya untuk menstrim data dan membuat ramalan inferens dipanggil Latihan Masa Ujian (TTT) atau Penyesuaian Masa Ujian (TTA).

Penulis mendapati terdapat kekeliruan dalam masyarakat tentang definisi TTT yang membawa kepada perbandingan yang tidak adil. Makalah ini mengklasifikasikan kaedah TTT sedia ada berdasarkan dua faktor utama:

Untuk data yang muncul dalam format penstriman dan perlu membuat ramalan tepat pada masanya pada data yang sedang berlaku, Ia dipanggil Penyesuaian Satu Pas; untuk protokol lain yang tidak memenuhi tetapan di atas, ia dipanggil Penyesuaian Berbilang Pas Model mungkin perlu dikemas kini pada keseluruhan set ujian untuk berbilang pusingan , dan kemudian membuat ramalan inferens dari awal hingga akhir .
  • Ubah suai persamaan kehilangan latihan domain sumber mengikut sama ada perlu, seperti memperkenalkan cawangan penyeliaan sendiri tambahan untuk mencapai TTT yang lebih berkesan.
  • Matlamat kertas kerja ini adalah untuk menyelesaikan protokol TTT yang paling realistik dan mencabar, iaitu penyesuaian pusingan tunggal tanpa mengubahsuai persamaan kehilangan latihan. Tetapan ini serupa dengan TTA yang dicadangkan oleh TENT [1], tetapi tidak terhad kepada menggunakan maklumat ringan daripada domain sumber, seperti statistik ciri. Memandangkan matlamat TTT untuk menyesuaikan diri dengan cekap pada masa ujian, andaian ini adalah cekap dari segi pengiraan dan meningkatkan prestasi TTT. Penulis menamakan protokol TTT baharu ini berurutan Latihan Masa Ujian (sTTT).

Selain klasifikasi kaedah TTT berbeza di atas, kertas kerja ini juga mencadangkan dua teknologi untuk menjadikan sTTT lebih berkesan dan tepat:

  • Kertas ini mencadangkan kaedah Test-Time Anchored Clustering (TTAC).
  • Untuk mengurangkan kesan label pseudo yang salah pada kemas kini kelompok, kertas menapis label pseudo berdasarkan kestabilan ramalan rangkaian dan keyakinan dalam sampel.

2. Pengenalan kaedah

Kertas ini dibahagikan kepada empat bahagian untuk menerangkan kaedah yang dicadangkan, iaitu 1) memperkenalkan sauh latihan masa ujian (TTT) modul pengelompokan tetap, seperti yang ditunjukkan dalam bahagian Pengelompokan Berlabuh dalam Rajah 1) memperkenalkan beberapa strategi untuk menapis label pseudo, seperti yang ditunjukkan dalam bahagian Penapis Label Pseudo dalam Rajah 1) berbeza daripada penggunaan jarak L2 dalam TTT++ [2] Untuk mengukur jarak antara dua taburan, penulis menggunakan perbezaan KL untuk mengukur jarak antara dua taburan ciri global 4) Memperkenalkan kaedah lelaran kemas kini yang berkesan untuk statistik ciri dalam proses latihan masa ujian (TTT). Akhir sekali, bahagian kelima memberikan kod proses keseluruhan algoritma.

Bagaimana untuk menentukan latihan fasa ujian dengan betul? Kaedah pengelompokan inferens berjujukan dan penyesuaian domain

Dalam bahagian pertama, dalam pengelompokan berlabuh, pengarang mula-mula menggunakan campuran Gaussian untuk memodelkan ciri-ciri domain sasaran, di mana setiap Gaussian komponen mewakili Kelompok yang ditemui. Penulis kemudiannya menggunakan pengedaran setiap kategori dalam domain sumber sebagai titik utama untuk pengedaran dalam domain sasaran untuk pemadanan. Dengan cara ini, ciri data ujian boleh membentuk kelompok pada masa yang sama, dan kelompok dikaitkan dengan kategori domain sumber, dengan itu mencapai generalisasi kepada domain sasaran. Secara ringkasnya, ciri domain sumber dan domain sasaran dimodelkan mengikut maklumat kategori:

Bagaimana untuk menentukan latihan fasa ujian dengan betul? Kaedah pengelompokan inferens berjujukan dan penyesuaian domain

dan kemudian mengukur kedua-duanya melalui perbezaan KL Campurkan jarak taburan Gaussian dan capai padanan dua ciri domain dengan mengurangkan perbezaan KL. Walau bagaimanapun, tiada penyelesaian bentuk tertutup untuk menyelesaikan secara langsung perbezaan KL pada dua taburan Gaussian bercampur, yang menjadikannya mustahil untuk menggunakan kaedah pengoptimuman kecerunan yang berkesan. Dalam makalah ini, penulis memperuntukkan bilangan kluster yang sama dalam domain sumber dan sasaran, dan setiap kluster domain sasaran diperuntukkan kepada kluster domain sumber, supaya penyelesaian perbezaan KL bagi keseluruhan Gaussian bercampur boleh ditukar menjadi setiap pasangan Jumlah perbezaan KL antara Gaussians. Formula berikut:

Bagaimana untuk menentukan latihan fasa ujian dengan betul? Kaedah pengelompokan inferens berjujukan dan penyesuaian domain

Penyelesaian bentuk tertutup bagi formula di atas ialah:

Bagaimana untuk menentukan latihan fasa ujian dengan betul? Kaedah pengelompokan inferens berjujukan dan penyesuaian domain

Dalam Formula 2, parameter kluster domain sumber boleh dikumpulkan di luar talian, dan kerana hanya data statistik ringan digunakan, ia tidak akan menyebabkan isu kebocoran privasi dan hanya menggunakan sejumlah kecil pengkomputeran dan overhed storan. Untuk pembolehubah dalam domain sasaran, penggunaan pseudo-label terlibat Untuk tujuan ini, penulis mereka strategi penapisan pseudo-label yang berkesan dan ringan.

Bahagian kedua strategi penapisan label pseudo terbahagi terutamanya kepada dua bahagian:

1) Penapisan ramalan ketekalan dalam siri masa:

Bagaimana untuk menentukan latihan fasa ujian dengan betul? Kaedah pengelompokan inferens berjujukan dan penyesuaian domain

2) Penapisan berdasarkan kebarangkalian posterior:

Bagaimana untuk menentukan latihan fasa ujian dengan betul? Kaedah pengelompokan inferens berjujukan dan penyesuaian domain

Akhir sekali , gunakan sampel yang ditapis untuk menyelesaikan statistik kluster domain sasaran:

Bagaimana untuk menentukan latihan fasa ujian dengan betul? Kaedah pengelompokan inferens berjujukan dan penyesuaian domain

Bahagian 3: Dalam pengelompokan berlabuh, beberapa sampel yang ditapis tidak mengambil bahagian dalam anggaran domain sasaran. Penulis juga melakukan penjajaran ciri global pada semua sampel ujian, serupa dengan pendekatan kepada kelompok dalam kelompok berlabuh Di sini semua sampel dianggap sebagai kelompok keseluruhan dan

ditakrifkan dalam domain sumber dan sasaran. domain masing-masing. >Keempat Tiga bahagian di atas semuanya memperkenalkan beberapa kaedah penjajaran domain, tetapi dalam proses TTT, tidak mudah untuk menganggarkan taburan domain sasaran kerana kami tidak dapat memerhati data keseluruhan domain sasaran. Dalam kerja canggih, TTT++ [2] menggunakan baris gilir ciri untuk menyimpan sampel separa lepas untuk mengira taburan setempat untuk menganggarkan taburan keseluruhan. Tetapi ini bukan sahaja membawa overhed memori, tetapi juga membawa kepada pertukaran antara ketepatan dan ingatan. Dalam kertas kerja ini, penulis mencadangkan kaedah berulang untuk mengemas kini statistik untuk mengurangkan overhed memori. Formula kemas kini berulang khusus adalah seperti berikut: Bagaimana untuk menentukan latihan fasa ujian dengan betul? Kaedah pengelompokan inferens berjujukan dan penyesuaian domain

Secara umum, keseluruhan algoritma adalah seperti yang ditunjukkan dalam Algoritma 1: Bagaimana untuk menentukan latihan fasa ujian dengan betul? Kaedah pengelompokan inferens berjujukan dan penyesuaian domain

Seperti yang ditunjukkan dalam Jadual 1, TTT++[2] muncul di bawah kedua-dua protokol N-O dan Y-O kerana TTT++[2] mempunyai cawangan penyeliaan diri tambahan Kami menggunakan N-O Kehilangan diri -cawangan yang diselia tidak akan ditambah di bawah protokol, manakala kehilangan molekul ini boleh digunakan secara normal di bawah Y-O. TTAC juga menggunakan cawangan seliaan sendiri yang sama seperti TTT++[2] di bawah Y-O. Seperti yang dapat dilihat daripada jadual, TTAC telah mencapai keputusan yang optimum di bawah semua protokol TTT dan semua set data pada kedua-dua set data CIFAR10-C dan CIFAR100-C, TTAC telah mencapai peningkatan lebih daripada 3%. Jadual 2 - Jadual 5 menunjukkan data masing-masing pada ImageNet-C, CIFAR10.1, dan VisDA telah mencapai keputusan terbaik.

Bagaimana untuk menentukan latihan fasa ujian dengan betul? Kaedah pengelompokan inferens berjujukan dan penyesuaian domain

Bagaimana untuk menentukan latihan fasa ujian dengan betul? Kaedah pengelompokan inferens berjujukan dan penyesuaian domain

Selain itu , Penulis menjalankan eksperimen ablasi yang ketat di bawah pelbagai protokol TTT pada masa yang sama, dan dengan jelas melihat peranan setiap komponen, seperti yang ditunjukkan dalam Jadual 6. Pertama sekali, daripada perbandingan di antara L2 Dist dan KLD, dapat dilihat bahawa penggunaan KL divergence untuk mengukur kedua-dua taburan mempunyai kesan yang lebih baik, kedua, didapati bahawa jika Anchored Clustering atau penyeliaan pseudo-label digunakan sahaja, maka peningkatan hanya 14%, tetapi jika digabungkan Dengan Penapis Label Berlabuh dan Pseudo Label, anda boleh melihat peningkatan prestasi yang ketara sebanyak 29.15% -> 11.33%. Ini juga menunjukkan keperluan dan gabungan yang berkesan bagi setiap komponen.

Bagaimana untuk menentukan latihan fasa ujian dengan betul? Kaedah pengelompokan inferens berjujukan dan penyesuaian domain

Akhir sekali, pengarang menganalisis sepenuhnya TTAC daripada lima dimensi pada akhir teks, termasuk prestasi kumulatif di bawah sTTT (N-O) dan visualisasi TSNE bagi ciri TTAC , analisis TTT bebas domain sumber, analisis baris gilir sampel ujian dan pusingan kemas kini, overhed pengiraan diukur dalam masa jam dinding. Terdapat lebih banyak bukti dan analisis yang menarik ditunjukkan dalam lampiran artikel.

4 Ringkasan

Artikel ini hanya memperkenalkan secara ringkas perkara sumbangan kerja TTAC ini: pengelasan dan perbandingan kaedah TTT sedia ada, kaedah yang dicadangkan dan pelbagai Eksperimen di bawah Klasifikasi protokol TTT. Akan ada perbincangan dan analisis yang lebih terperinci dalam kertas dan lampiran. Kami berharap kerja ini akan memberikan penanda aras yang adil untuk kaedah TTT dan kajian masa depan harus membandingkan dalam protokol masing-masing.

Atas ialah kandungan terperinci Bagaimana untuk menentukan latihan fasa ujian dengan betul? Kaedah pengelompokan inferens berjujukan dan penyesuaian domain. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Cara Memperbaiki Audio Jika anda tidak dapat mendengar sesiapa
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Cara Membuka Segala -galanya Di Myrise
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Sumber terbuka! Di luar ZoeDepth! DepthFM: Anggaran kedalaman monokular yang cepat dan tepat! Sumber terbuka! Di luar ZoeDepth! DepthFM: Anggaran kedalaman monokular yang cepat dan tepat! Apr 03, 2024 pm 12:04 PM

0. Apakah fungsi artikel ini? Kami mencadangkan DepthFM: model anggaran kedalaman monokular generatif yang serba boleh dan pantas. Sebagai tambahan kepada tugas anggaran kedalaman tradisional, DepthFM juga menunjukkan keupayaan terkini dalam tugas hiliran seperti mengecat kedalaman. DepthFM cekap dan boleh mensintesis peta kedalaman dalam beberapa langkah inferens. Mari kita baca karya ini bersama-sama ~ 1. Tajuk maklumat kertas: DepthFM: FastMonocularDepthEstimationwithFlowMatching Pengarang: MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

Model MoE sumber terbuka paling berkuasa di dunia ada di sini, dengan keupayaan bahasa Cina setanding dengan GPT-4, dan harganya hanya hampir satu peratus daripada GPT-4-Turbo Model MoE sumber terbuka paling berkuasa di dunia ada di sini, dengan keupayaan bahasa Cina setanding dengan GPT-4, dan harganya hanya hampir satu peratus daripada GPT-4-Turbo May 07, 2024 pm 04:13 PM

Bayangkan model kecerdasan buatan yang bukan sahaja mempunyai keupayaan untuk mengatasi pengkomputeran tradisional, tetapi juga mencapai prestasi yang lebih cekap pada kos yang lebih rendah. Ini bukan fiksyen sains, DeepSeek-V2[1], model MoE sumber terbuka paling berkuasa di dunia ada di sini. DeepSeek-V2 ialah gabungan model bahasa pakar (MoE) yang berkuasa dengan ciri-ciri latihan ekonomi dan inferens yang cekap. Ia terdiri daripada 236B parameter, 21B daripadanya digunakan untuk mengaktifkan setiap penanda. Berbanding dengan DeepSeek67B, DeepSeek-V2 mempunyai prestasi yang lebih kukuh, sambil menjimatkan 42.5% kos latihan, mengurangkan cache KV sebanyak 93.3% dan meningkatkan daya pemprosesan penjanaan maksimum kepada 5.76 kali. DeepSeek ialah sebuah syarikat yang meneroka kecerdasan buatan am

KAN, yang menggantikan MLP, telah diperluaskan kepada konvolusi oleh projek sumber terbuka KAN, yang menggantikan MLP, telah diperluaskan kepada konvolusi oleh projek sumber terbuka Jun 01, 2024 pm 10:03 PM

Awal bulan ini, penyelidik dari MIT dan institusi lain mencadangkan alternatif yang sangat menjanjikan kepada MLP - KAN. KAN mengatasi MLP dari segi ketepatan dan kebolehtafsiran. Dan ia boleh mengatasi prestasi MLP berjalan dengan bilangan parameter yang lebih besar dengan bilangan parameter yang sangat kecil. Sebagai contoh, penulis menyatakan bahawa mereka menggunakan KAN untuk menghasilkan semula keputusan DeepMind dengan rangkaian yang lebih kecil dan tahap automasi yang lebih tinggi. Khususnya, MLP DeepMind mempunyai kira-kira 300,000 parameter, manakala KAN hanya mempunyai kira-kira 200 parameter. KAN mempunyai asas matematik yang kukuh seperti MLP berdasarkan teorem penghampiran universal, manakala KAN berdasarkan teorem perwakilan Kolmogorov-Arnold. Seperti yang ditunjukkan dalam rajah di bawah, KAN telah

Hello, Atlas elektrik! Robot Boston Dynamics hidup semula, gerakan pelik 180 darjah menakutkan Musk Hello, Atlas elektrik! Robot Boston Dynamics hidup semula, gerakan pelik 180 darjah menakutkan Musk Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas secara rasmi memasuki era robot elektrik! Semalam, Atlas hidraulik hanya "menangis" menarik diri daripada peringkat sejarah Hari ini, Boston Dynamics mengumumkan bahawa Atlas elektrik sedang berfungsi. Nampaknya dalam bidang robot humanoid komersial, Boston Dynamics berazam untuk bersaing dengan Tesla. Selepas video baharu itu dikeluarkan, ia telah pun ditonton oleh lebih sejuta orang dalam masa sepuluh jam sahaja. Orang lama pergi dan peranan baru muncul. Ini adalah keperluan sejarah. Tidak dinafikan bahawa tahun ini adalah tahun letupan robot humanoid. Netizen mengulas: Kemajuan robot telah menjadikan majlis pembukaan tahun ini kelihatan seperti manusia, dan tahap kebebasan adalah jauh lebih besar daripada manusia Tetapi adakah ini benar-benar bukan filem seram? Pada permulaan video, Atlas berbaring dengan tenang di atas tanah, seolah-olah terlentang. Apa yang berikut adalah rahang-jatuh

Apr 09, 2024 am 11:52 AM

AI memang mengubah matematik. Baru-baru ini, Tao Zhexuan, yang telah mengambil perhatian terhadap isu ini, telah memajukan keluaran terbaru "Buletin Persatuan Matematik Amerika" (Buletin Persatuan Matematik Amerika). Memfokuskan pada topik "Adakah mesin akan mengubah matematik?", ramai ahli matematik menyatakan pendapat mereka Seluruh proses itu penuh dengan percikan api, tegar dan menarik. Penulis mempunyai barisan yang kuat, termasuk pemenang Fields Medal Akshay Venkatesh, ahli matematik China Zheng Lejun, saintis komputer NYU Ernest Davis dan ramai lagi sarjana terkenal dalam industri. Dunia AI telah berubah secara mendadak Anda tahu, banyak artikel ini telah dihantar setahun yang lalu.

Daya hidup kecerdasan super membangkitkan! Tetapi dengan kedatangan AI yang mengemas kini sendiri, ibu tidak perlu lagi bimbang tentang kesesakan data Daya hidup kecerdasan super membangkitkan! Tetapi dengan kedatangan AI yang mengemas kini sendiri, ibu tidak perlu lagi bimbang tentang kesesakan data Apr 29, 2024 pm 06:55 PM

Saya menangis hingga mati. Dunia sedang membina model besar. Data di Internet tidak mencukupi. Model latihan kelihatan seperti "The Hunger Games", dan penyelidik AI di seluruh dunia bimbang tentang cara memberi makan data ini kepada pemakan yang rakus. Masalah ini amat ketara dalam tugas berbilang modal. Pada masa mereka mengalami kerugian, pasukan pemula dari Jabatan Universiti Renmin China menggunakan model baharu mereka sendiri untuk menjadi yang pertama di China untuk menjadikan "suapan data yang dijana model itu sendiri" menjadi kenyataan. Selain itu, ia merupakan pendekatan serampang dua mata dari segi pemahaman dan sisi penjanaan Kedua-dua pihak boleh menjana data baharu berbilang modal yang berkualiti tinggi dan memberikan maklum balas data kepada model itu sendiri. Apakah model? Awaker 1.0, model berbilang modal besar yang baru sahaja muncul di Forum Zhongguancun. Siapa pasukan itu? Enjin Sophon. Diasaskan oleh Gao Yizhao, pelajar kedoktoran di Sekolah Kecerdasan Buatan Hillhouse Universiti Renmin.

Versi Kuaishou Sora 'Ke Ling' dibuka untuk ujian: menghasilkan video lebih 120-an, memahami fizik dengan lebih baik dan boleh memodelkan pergerakan kompleks dengan tepat Versi Kuaishou Sora 'Ke Ling' dibuka untuk ujian: menghasilkan video lebih 120-an, memahami fizik dengan lebih baik dan boleh memodelkan pergerakan kompleks dengan tepat Jun 11, 2024 am 09:51 AM

Apa? Adakah Zootopia dibawa menjadi realiti oleh AI domestik? Didedahkan bersama-sama dengan video itu ialah model penjanaan video domestik berskala besar baharu yang dipanggil "Keling". Sora menggunakan laluan teknikal yang serupa dan menggabungkan beberapa inovasi teknologi yang dibangunkan sendiri untuk menghasilkan video yang bukan sahaja mempunyai pergerakan yang besar dan munasabah, tetapi juga mensimulasikan ciri-ciri dunia fizikal dan mempunyai keupayaan gabungan konsep dan imaginasi yang kuat. Mengikut data, Keling menyokong penjanaan video ultra panjang sehingga 2 minit pada 30fps, dengan resolusi sehingga 1080p dan menyokong berbilang nisbah aspek. Satu lagi perkara penting ialah Keling bukanlah demo atau demonstrasi hasil video yang dikeluarkan oleh makmal, tetapi aplikasi peringkat produk yang dilancarkan oleh Kuaishou, pemain terkemuka dalam bidang video pendek. Selain itu, tumpuan utama adalah untuk menjadi pragmatik, bukan untuk menulis cek kosong, dan pergi ke dalam talian sebaik sahaja ia dikeluarkan Model besar Ke Ling telah pun dikeluarkan di Kuaiying.

Tentera Udara A.S. mempamerkan jet pejuang AI pertamanya dengan profil tinggi! Menteri secara peribadi menjalankan pandu uji tanpa campur tangan semasa keseluruhan proses, dan 100,000 baris kod telah diuji selama 21 kali. Tentera Udara A.S. mempamerkan jet pejuang AI pertamanya dengan profil tinggi! Menteri secara peribadi menjalankan pandu uji tanpa campur tangan semasa keseluruhan proses, dan 100,000 baris kod telah diuji selama 21 kali. May 07, 2024 pm 05:00 PM

Baru-baru ini, bulatan tentera telah terharu dengan berita: jet pejuang tentera AS kini boleh melengkapkan pertempuran udara automatik sepenuhnya menggunakan AI. Ya, baru-baru ini, jet pejuang AI tentera AS telah didedahkan buat pertama kali, mendedahkan misterinya. Nama penuh pesawat pejuang ini ialah Variable Stability Simulator Test Aircraft (VISTA). Ia diterbangkan sendiri oleh Setiausaha Tentera Udara AS untuk mensimulasikan pertempuran udara satu lawan satu. Pada 2 Mei, Setiausaha Tentera Udara A.S. Frank Kendall berlepas menggunakan X-62AVISTA di Pangkalan Tentera Udara Edwards Ambil perhatian bahawa semasa penerbangan selama satu jam, semua tindakan penerbangan telah diselesaikan secara autonomi oleh AI! Kendall berkata - "Sejak beberapa dekad yang lalu, kami telah memikirkan tentang potensi tanpa had pertempuran udara-ke-udara autonomi, tetapi ia sentiasa kelihatan di luar jangkauan." Namun kini,

See all articles