Jadual Kandungan
Model bahasa besar ditemui oleh penaakulan sifar
Menambah sedikit "ajaib" telah menjadi trend baharu dalam kalangan AI
Rumah Peranti teknologi AI Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Apr 27, 2023 pm 05:19 PM
pembelajaran mesin ai gpt-3

Apabila saya bangun, komuniti pembelajaran mesin berada dalam keadaan terkejut.

Oleh kerana penyelidikan terkini mendapati bahawa hanya dengan mengatakan "Mari kita fikir langkah demi langkah" kepada GPT-3 akan membolehkannya menjawab soalan dengan betul yang tidak dapat dijawab sebelum ini.

Contohnya, contoh berikut:

Separuh daripada 16 bola adalah bola golf, dan separuh daripada bola golf ini berwarna biru?

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

(Masalahnya tidak sukar, tetapi sila ambil perhatian bahawa ini adalah pembelajaran sampel sifar, yang bermaksud bahawa masalah serupa tidak pernah dilihat semasa peringkat latihan AI.)

Jika GPT diperlukan -3 Tulis terus "apa jawapan", ia akan memberikan jawapan yang salah: 8.

Tetapi selepas menambah "mantera" yang membolehkan kita memikirkannya langkah demi langkah, GPT-3 akan mula-mula mengeluarkan langkah-langkah berfikir, dan akhirnya memberikan jawapan yang betul: 4!

Dan ini tidak Ia bukan satu kebetulan, pasukan penyelidik mengesahkannya sepenuhnya dalam kertas itu.

Soalan di atas datang daripada set data MutiArith klasik, yang secara khusus menguji keupayaan model bahasa untuk menyelesaikan masalah matematik pada asalnya GPT-3 mempunyai ketepatan hanya 17% dalam senario sampel sifar.

Kertas kerja ini meringkaskan 9 perkataan gesaan yang paling berkesan Antaranya, 6 perkataan pertama yang ditukar untuk membolehkan GPT-3 berfikir secara beransur-ansur meningkatkan kadar ketepatan kepada lebih daripada 70%.

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Malah ayat paling mudah "Mari fikir" boleh meningkat kepada 57.5%.

Rasanya makcik tadika sedang memujuk kanak-kanak...

Teknik ini nampaknya tidak memerlukan sebarang pengubahsuaian ajaib pada GPT-3 Seseorang telah berjaya mengeluarkannya pada demo rasmi OpenAI . Malah menukarnya kepada bahasa Cina akan berjaya.

Soalan bahasa Inggeris mempunyai pembayang bahasa Cina, dan GPT-3 memberikan jawapan bahasa Cina yang betul.

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Penyelidik Google yang mula-mula memajukan kertas ini ke rangkaian sosial berkata bahawa semua yang anda perlukan baharu telah ditambahkan.

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Melihat ini, lelaki besar dari seluruh dunia mendapat imaginasi mereka mengalir dan mula membuat jenaka.

Apakah yang akan berlaku jika anda menggalakkan AI ​​untuk berkata "Anda boleh melakukannya, saya percaya pada anda"?

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Ancam AI ​​dengan mengatakan "Masa semakin suntuk" atau "Anda Bagaimana pula dengan "pistol di kepala anda"?

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Adakah memberitahu AI "memandu dengan lebih berhati-hati" menjadi diri sendiri -penyelesaian pemanduan?

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Sesetengah orang juga menegaskan bahawa ini hampir sama dengan plot cerita fiksyen sains "The Hitchhiker's Guide to the Galaxy". mencapai kecerdasan buatan am ialah mengetahui cara bertanya AI dengan betul.

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Jadi, apa yang berlaku dengan fenomena ajaib ini

Model bahasa besar ditemui oleh penaakulan sifar

Ia merupakan penyelidikan kerjasama antara Google Brain dan Universiti Tokyo, yang meneroka prestasi model bahasa besar dalam senario sampel sifar.

Tajuk kertas kerja "Model Bahasa ialah Penaakulan Sampel Sifar" juga memberi penghormatan kepada "Model Bahasa ialah Pelajar Sedikit Sampel" GPT-3.

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Kaedah yang digunakan adalah milik Chain of Thought Prompting (CoT), yang baru dicadangkan oleh pasukan Google Brain pada Januari tahun ini.

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

CoT yang terawal digunakan pada beberapa sampel pembelajaran, memberikan contoh jawapan langkah demi langkah sambil bertanya soalan untuk membimbing AI.

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Penyelidikan terbaharu ini mencadangkan CoT sampel sifar Perubahan utama adalah untuk memudahkan bahagian contoh.

  • Langkah pertama ialah menulis semula batang soalan ke dalam bentuk "Q: xxx, A: xxx", di mana ayat pencetus A boleh mengeluarkan proses pemikiran model bahasa.
  • Langkah kedua ialah percubaan tambahan, menambahkan gesaan "Jawapannya..." untuk menggesa model bahasa memberikan jawapan akhir.

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Kelebihan terbesar ini ialah ia bersifat universal, dan tidak perlu memberikan contoh khusus untuk jenis masalah yang berbeza.

Kertas ini telah menjalankan eksperimen yang mencukupi ke atas pelbagai masalah, termasuk 12 ujian:

  • 6 set ujian masalah matematik, SingleEq, AddSub, SVAMP dan MultiArith yang lebih mencabar, AQUA-RAT, GSM8K.
  • 2 set ujian penaakulan akal, CommonsenseQA dan StrategyQA.
  • 2 set ujian penaakulan simbolik, Penggabungan Huruf Terakhir dan Flip Syiling.
  • serta masalah pemahaman tarikh dalam BIG-bench dan tugas menjejak objek yang tidak tertib.

Berbanding dengan pembelajaran sifar pukulan biasa, sifar pukulan CoT mencapai hasil yang lebih baik dalam 10 daripadanya.

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Nilai di sebelah kanan △ ialah hasil percubaan tambahan

Dalam ujian matematik MultiArith dan GSM8K yang lebih sukar, versi terkini GPT-3 Text-davinci telah digunakan -002 (175B) menjalankan eksperimen yang lebih mendalam.

Jika anda memberikan 8 percubaan untuk mendapatkan hasil yang terbaik, ketepatan boleh dipertingkatkan lagi kepada 93%.

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Dalam analisis hasil ralat, penyelidik juga mendapati bahawa dalam banyak soalan, proses penaakulan AI sebenarnya betul, tetapi apabila jawapannya tidak dapat menumpu kepada kepastian yang unik, pelbagai jawapan akan diberikan.

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Pada akhir kertas kerja, pasukan penyelidik mencadangkan bahawa kajian ini bukan sahaja boleh menjadi garis asas untuk CoT sampel sifar, tetapi juga berharap untuk menjadikan komuniti akademik menyedari kepentingan membina set data yang diperhalusi dan templat gesaan beberapa sampel Sebelum ini, kami meneroka sepenuhnya kepentingan keupayaan sampel sifar bagi model bahasa besar.

Pasukan penyelidik berasal dari Makmal Matsuo Universiti Tokyo.

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Orang yang bertanggungjawab, Profesor Matsuo Yutaka, juga merupakan pakar kecerdasan buatan pertama dalam lembaga pengarah SoftBank.

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Salah seorang ahli pasukan ialah Gu Shixiang, profesor pelawat dari pasukan Google Brain Gu Shixiang belajar di bawah Hinton, salah satu daripada tiga gergasi, untuk ijazah sarjana mudanya menerima ijazah kedoktoran dari Universiti Cambridge.

Menambah sedikit "ajaib" telah menjadi trend baharu dalam kalangan AI

Mengapa kerja CoT sampel sifar masih perlu diterokai.

Walau bagaimanapun, seseorang secara eksperimen membuat kesimpulan bahawa kaedah ini nampaknya hanya berkesan untuk GPT-3 (text-davinci-002 Dia mencuba versi 001 dan mendapati sedikit kesan).

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Dia menyenaraikan contoh perkara yang dia lakukan.

Soalan: Sila sambungkan huruf terakhir setiap perkataan dalam mesin dan pembelajaran.

Jawapan yang diberikan oleh GPT-3 apabila digesa ialah menyambungkan semua huruf dalam dua perkataan.

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Sebagai tindak balas, salah seorang pengarang, Gu Shixiang, menjawab bahawa sebenarnya, "mantera" mempunyai kesan pada kedua-dua versi awal dan versi GPT- yang dipertingkatkan. 3, dan keputusan ini juga ditunjukkan dalam kertas.

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Sesetengah orang juga mempersoalkan sama ada pembelajaran mendalam telah menjadi permainan mencari "mantera ajaib"?

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Pada masa yang sama, kami melihat Marcus sekali lagi dalam pasukan aduan.

Dia juga menyenaraikan contoh kegagalan GPT-3, dengan berkat "mantera", gagal untuk mengetahui sama ada lembu Sally akan hidup semula...

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Walau bagaimanapun, adalah wajar diperhatikan bahawa contoh seperti ini adalah perkara biasa untuk menambah sedikit keajaiban pada AI dan mencapai peningkatan segera.

Sesetengah netizen berkongsi bahawa menambah beberapa arahan perantaraan apabila menggunakan GPT-3 sememangnya boleh mendapatkan hasil yang lebih memuaskan.

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Sebelum ini, penyelidik dari Google dan MIT mendapati bahawa tidak ada keperluan untuk menukar seni bina asas asalkan model bahasa latihan akan "memecahkan titik" seperti pengaturcara semasa menyahpepijat , model membaca kod, Keupayaan saya untuk melakukan aritmetik bertambah baik dengan cepat.

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Prinsipnya juga sangat mudah, iaitu, dalam program dengan banyak langkah pengiraan, biarkan model mengekod setiap langkah ke dalam teks dan merekodkannya dalam fail yang dipanggil "sticky nota" ” dalam daftar sementara.

Hasilnya, proses pengiraan model menjadi lebih jelas dan teratur, dan prestasi secara semula jadi bertambah baik.

Terdapat juga Arahan GPT-3 yang digunakan untuk ujian dalam percubaan ini, yang juga merupakan contoh biasa.

Hanya dengan membiarkan GPT-3 belajar daripada maklum balas manusia, ia boleh memperbaiki keadaan menjawab soalan yang salah dengan ketara.

Secara khusus, ia adalah untuk menggunakan beberapa jawapan demonstrasi manusia untuk memperhalusi model, kemudian mengumpulkan beberapa set data keluaran yang berbeza bagi soalan tertentu, mengisih beberapa set jawapan secara manual dan melatih model ganjaran pada set data ini.

Akhir sekali, menggunakan RM sebagai fungsi ganjaran, algoritma Pengoptimuman Dasar Proksimal (PPO) memperhalusi dasar GPT-3 untuk memaksimumkan ganjaran dengan kaedah pembelajaran pengukuhan.

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Termasuk Aran, blogger Twitter yang mencetuskan topik ini, adalah orang yang pada asalnya mendapati bahawa penambahan "Unreal Engine" boleh menjadikan kualiti imej yang dijana AI melonjak.

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Bekas bos robot Google Eric Jang juga sebelum ini mendapati bahawa pembelajaran pengukuhan juga boleh menggunakan pemikiran yang sama untuk meningkatkan kecekapan pengkomputeran.

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Sesetengah orang juga mengatakan bahawa teknik seperti ini yang digunakan dalam AI bukanlah seperti yang biasa mereka gunakan apabila menggunakan otak mereka?

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Malah, Bengio sebelum ini telah bermula dari sains otak dan mencadangkan mod pengendalian AI harus sama dengan mod otak manusia.

Tugas kognitif manusia boleh dibahagikan kepada kognisi Sistem 1 dan kognisi Sistem 2.

Tugas kognitif Sistem 1 merujuk kepada tugasan yang diselesaikan secara tidak sedar. Sebagai contoh, anda boleh mengenal pasti dengan segera apa yang anda pegang di tangan anda, tetapi anda tidak boleh menerangkan kepada orang lain bagaimana anda menyelesaikan proses ini.

Tugas kognitif Sistem 2 merujuk kepada kognisi yang perlu diselesaikan oleh otak manusia mengikut langkah-langkah tertentu. Sebagai contoh, jika anda melakukan pengiraan penambahan dan penolakan, anda boleh menerangkan dengan jelas bagaimana anda sampai pada jawapan akhir.

"Ejaan" yang ditambahkan kali ini adalah untuk membolehkan AI bergerak selangkah lebih jauh dan belajar berfikir mengikut langkah.

Menghadapi aliran ini, sesetengah sarjana percaya bahawa "kejuruteraan petunjuk menggantikan kejuruteraan ciri."

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Jadi adakah "cue word hunter" akan menjadi nama panggilan kepada generasi penyelidik NLP seterusnya?

Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan

Alamat kertas :​​https://www.php.cn/link/cc9109aa1f048c36d154d902612982e2​

Pautan rujukan: //twitter.com/arankomatsuzaki/status/1529278580189908993

[2]https://evjang.com/2021/10/23/generalization.html

Atas ialah kandungan terperinci Sedikit memujuk boleh meningkatkan ketepatan GPT-3 sebanyak 61%! Penyelidikan Google dan Universiti Tokyo mengejutkan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

Video Face Swap

Video Face Swap

Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Platform Perdagangan Web3 Ranking_Web3 Global Exchanges Top Ten Ringkasan Platform Perdagangan Web3 Ranking_Web3 Global Exchanges Top Ten Ringkasan Apr 21, 2025 am 10:45 AM

Binance adalah tuan rumah ekosistem perdagangan aset digital global, dan ciri -cirinya termasuk: 1. Jumlah dagangan harian purata melebihi $ 150 bilion, menyokong 500 pasangan perdagangan, yang meliputi 98% mata wang arus perdana; 2. Matriks inovasi meliputi pasaran Derivatif, susun atur Web3 dan sistem pendidikan; 3. Kelebihan teknikal adalah enjin yang sepadan dengan milisaat, dengan jumlah pemprosesan puncak sebanyak 1.4 juta transaksi sesaat; 4. Kemajuan pematuhan memegang lesen 15 negara dan menetapkan entiti yang mematuhi di Eropah dan Amerika Syarikat.

Platform Pertukaran Cryptocurrency Top 10 senarai pertukaran mata wang digital terbesar di dunia Platform Pertukaran Cryptocurrency Top 10 senarai pertukaran mata wang digital terbesar di dunia Apr 21, 2025 pm 07:15 PM

Pertukaran memainkan peranan penting dalam pasaran cryptocurrency hari ini. Mereka bukan sahaja platform untuk pelabur untuk berdagang, tetapi juga sumber kecairan pasaran dan penemuan harga. Pertukaran mata wang maya terbesar di dunia di kalangan sepuluh teratas, dan pertukaran ini bukan sahaja jauh ke hadapan dalam jumlah dagangan, tetapi juga mempunyai kelebihan mereka sendiri dalam pengalaman pengguna, perkhidmatan keselamatan dan inovatif. Pertukaran yang atas senarai biasanya mempunyai pangkalan pengguna yang besar dan pengaruh pasaran yang luas, dan jumlah dagangan dan jenis aset mereka sering sukar dicapai oleh bursa lain.

Cara mengelakkan kerugian selepas peningkatan ETH Cara mengelakkan kerugian selepas peningkatan ETH Apr 21, 2025 am 10:03 AM

Selepas peningkatan ETH, orang baru harus mengamalkan strategi berikut untuk mengelakkan kerugian: 1. Lakukan kerja rumah mereka dan memahami pengetahuan asas dan meningkatkan kandungan ETH; 2. Posisi kawalan, menguji perairan dalam jumlah yang kecil dan mempelbagaikan pelaburan; 3. Buat pelan dagangan, jelaskan matlamat dan tetapkan titik kehilangan berhenti; 4. Profil secara rasional dan elakkan membuat keputusan emosi; 5. Pilih platform perdagangan formal dan boleh dipercayai; 6. Pertimbangkan jangka panjang untuk mengelakkan kesan turun naik jangka pendek.

Apakah sepuluh platform teratas dalam bulatan pertukaran mata wang? Apakah sepuluh platform teratas dalam bulatan pertukaran mata wang? Apr 21, 2025 pm 12:21 PM

Pertukaran teratas termasuk: 1. Binance, jumlah dagangan terbesar di dunia, menyokong 600 mata wang, dan yuran pengendalian tempat adalah 0.1%; 2. Okx, platform seimbang, menyokong 708 pasangan dagangan, dan yuran pengendalian kontrak kekal adalah 0.05%; 3. Gate.io, meliputi 2700 mata wang kecil, dan yuran pengendalian tempat ialah 0.1%-0.3%; 4. Coinbase, penanda aras pematuhan AS, yuran pengendalian tempat adalah 0.5%; 5. Kraken, keselamatan tertinggi, dan audit rizab tetap.

Apakah yang dimaksudkan dengan transaksi rantaian rantaian? Apakah urus niaga salib? Apakah yang dimaksudkan dengan transaksi rantaian rantaian? Apakah urus niaga salib? Apr 21, 2025 pm 11:39 PM

Pertukaran yang menyokong urus niaga rantaian: 1. Binance, 2. Uniswap, 3 Sushiswap, 4. Kewangan Curve, 5. Thorchain, 6. 1 inci Pertukaran, 7.

Mengapa kenaikan atau kejatuhan harga mata wang maya? Mengapa kenaikan atau kejatuhan harga mata wang maya? Mengapa kenaikan atau kejatuhan harga mata wang maya? Mengapa kenaikan atau kejatuhan harga mata wang maya? Apr 21, 2025 am 08:57 AM

Faktor kenaikan harga mata wang maya termasuk: 1. Peningkatan permintaan pasaran, 2. Menurunkan bekalan, 3. Berita positif yang dirangsang, 4. Sentimen pasaran optimis, 5. Persekitaran makroekonomi; Faktor penurunan termasuk: 1. Mengurangkan permintaan pasaran, 2. Peningkatan bekalan, 3.

Ramalan Harga Worldcoin (WLD) 2025-2031: Adakah WLD akan mencapai $ 4 menjelang 2031? Ramalan Harga Worldcoin (WLD) 2025-2031: Adakah WLD akan mencapai $ 4 menjelang 2031? Apr 21, 2025 pm 02:42 PM

Worldcoin (WLD) menonjol dalam pasaran cryptocurrency dengan mekanisme pengesahan biometrik dan perlindungan privasi yang unik, menarik perhatian banyak pelabur. WLD telah melakukan yang luar biasa di kalangan altcoin dengan teknologi inovatifnya, terutamanya dalam kombinasi dengan teknologi kecerdasan buatan terbuka. Tetapi bagaimanakah aset digital akan berkelakuan dalam beberapa tahun akan datang? Mari kita meramalkan harga masa depan WLD bersama -sama. Ramalan harga WLD 2025 dijangka mencapai pertumbuhan yang signifikan di WLD pada tahun 2025. Analisis pasaran menunjukkan bahawa harga WLD purata boleh mencapai $ 1.31, dengan maksimum $ 1.36. Walau bagaimanapun, dalam pasaran beruang, harga mungkin jatuh ke sekitar $ 0.55. Harapan pertumbuhan ini disebabkan terutamanya oleh WorldCoin2.

Kedudukan pertukaran leverage dalam lingkaran mata wang Cadangan terkini sepuluh pertukaran leverage dalam lingkaran mata wang Kedudukan pertukaran leverage dalam lingkaran mata wang Cadangan terkini sepuluh pertukaran leverage dalam lingkaran mata wang Apr 21, 2025 pm 11:24 PM

Platform yang mempunyai prestasi cemerlang dalam perdagangan, keselamatan dan pengalaman pengguna yang dimanfaatkan pada tahun 2025 adalah: 1. Okx, sesuai untuk peniaga frekuensi tinggi, menyediakan sehingga 100 kali leverage; 2. Binance, sesuai untuk peniaga berbilang mata wang di seluruh dunia, memberikan 125 kali leverage tinggi; 3. Gate.io, sesuai untuk pemain derivatif profesional, menyediakan 100 kali leverage; 4. Bitget, sesuai untuk orang baru dan peniaga sosial, menyediakan sehingga 100 kali leverage; 5. Kraken, sesuai untuk pelabur mantap, menyediakan 5 kali leverage; 6. Bybit, sesuai untuk penjelajah altcoin, menyediakan 20 kali leverage; 7. Kucoin, sesuai untuk peniaga kos rendah, menyediakan 10 kali leverage; 8. Bitfinex, sesuai untuk bermain senior

See all articles