Jadual Kandungan
Paper Overview
Transformer sebagai komputer boleh atur cara
Membina modul Transformer untuk pengkomputeran am
Simulated Universal Single Instruction Set Computer
Rumah Peranti teknologi AI Menggunakan Transformer sebagai komputer tujuan umum, ia juga boleh melaksanakan algoritma pembelajaran dalam konteks Penyelidikan ini sangat imaginatif.

Menggunakan Transformer sebagai komputer tujuan umum, ia juga boleh melaksanakan algoritma pembelajaran dalam konteks Penyelidikan ini sangat imaginatif.

Apr 13, 2023 am 11:31 AM
teknologi simulasi

Transformer telah menjadi pilihan popular untuk pelbagai tugas pembelajaran mesin dan telah mencapai hasil yang hebat, jadi bagaimana lagi ia boleh digunakan? Penyelidik yang mempunyai imaginasi yang hebat sebenarnya mahu menggunakannya untuk mereka bentuk komputer boleh atur cara!

Menggunakan Transformer sebagai komputer tujuan umum, ia juga boleh melaksanakan algoritma pembelajaran dalam konteks Penyelidikan ini sangat imaginatif.

Pengarang kertas kerja ini adalah dari Princeton University dan University of Wisconsin, dan bertajuk "Looped Transformers as Programmable Komputer". Saya sedang meneroka cara menggunakan Transformer untuk melaksanakan komputer tujuan umum.

Secara khusus, penulis mencadangkan rangka kerja untuk menggunakan rangkaian pengubah sebagai komputer tujuan umum dengan memprogramkannya dengan pemberat tertentu dan meletakkannya dalam gelung. Dalam rangka kerja ini, urutan input bertindak sebagai kad tebuk, yang terdiri daripada arahan dan memori untuk membaca/menulis data.

Pengarang menunjukkan bahawa bilangan lapisan pengekod yang tetap boleh mensimulasikan blok pengiraan asas. Menggunakan blok binaan ini, mereka mensimulasikan komputer set arahan kecil. Ini membolehkan mereka memetakan algoritma lelaran kepada program yang boleh dilaksanakan oleh pengubah 13 lapisan bergelung. Mereka menunjukkan cara pengubah ini boleh meniru kalkulator asas, perpustakaan algebra linear asas dan algoritma pembelajaran dalam konteks menggunakan perambatan belakang, berpandukan inputnya. Kerja ini menyerlahkan kepelbagaian mekanisme perhatian dan menunjukkan bahawa walaupun transformer cetek boleh melaksanakan program tujuan am sepenuhnya.

Paper Overview

Transformer (TF) telah menjadi pilihan popular untuk pelbagai tugasan pembelajaran mesin Ia telah mencapai keputusan dalam banyak masalah dalam bidang seperti pemprosesan bahasa semula jadi dan penglihatan komputer. Sebab utama kejayaan Transformer ialah keupayaannya untuk menangkap perhubungan peringkat lebih tinggi dan kebergantungan jarak jauh melalui mekanisme perhatian. Ini membolehkan TF memodelkan maklumat kontekstual dan menjadikannya lebih berkesan dalam tugas seperti terjemahan mesin dan pemodelan bahasa, di mana Transformer secara konsisten mengatasi kaedah lain.

Model bahasa dengan ratusan bilion parameter, seperti GPT-3 (parameter 175B) dan PaLM (parameter 540B), telah mencapai prestasi terkini pada banyak jenis semula jadi. tugas pemprosesan bahasa. Menariknya, beberapa model bahasa besar (LLM) ini juga boleh melaksanakan pembelajaran dalam konteks (ICL), menyesuaikan dan melaksanakan tugas tertentu dengan pantas berdasarkan gesaan ringkas dan beberapa contoh. Keupayaan ICL LLM tersedia tanpa perlu melatihnya dan membenarkan model besar ini melaksanakan tugas baharu dengan cekap tanpa mengemas kini pemberat.

Anehnya, melalui ICL, LLM boleh melaksanakan tugasan algoritma dan inferens, dan [Nye et al [2021], Wei et al [2022c], Lewkowycz et al [2022], Wei et al [2022b], Zhou et al [2022]] dan lain-lain telah membuktikan kebolehlaksanaannya. Kerja oleh [Zhou et al. [2022] ] dan lain-lain menunjukkan bahawa LLM boleh berjaya melaksanakan operasi penambahan pada kes penggunaan yang tidak diketahui apabila diberi gesaan dengan algoritma penambahan berbilang bit dan beberapa contoh penambahan. Keputusan ini menunjukkan bahawa LLM boleh melaksanakan arahan pra-arahan pada input yang diberikan pada masa inferens, berdasarkan prinsip algoritma, seolah-olah mentafsir bahasa semula jadi sebagai kod.

Terdapat bukti bahawa Transformer boleh mensimulasikan mesin Turing dengan kedalaman yang mencukupi atau pautan rekursif antara lapisan Perhatian [Pérez et al [2021], Pérez et al . [2022a]]. Ini menunjukkan potensi rangkaian Transformer untuk mengikut tepat arahan algoritma yang ditentukan oleh input. Walau bagaimanapun, binaan ini agak umum dan tidak memberikan pemahaman yang mendalam tentang cara mencipta Transformer yang mampu melaksanakan tugas algoritma tertentu.

Walau bagaimanapun, reka bentuk yang lebih profesional membolehkan TF melaksanakan program yang lebih maju. Sebagai contoh, [Weiss et al. [2021]] mereka bentuk model pengiraan dan bahasa pengaturcaraan yang memetakan arahan pemilihan dan pengagregatan mudah untuk mengindeks token input. Bahasa ini boleh digunakan untuk mencipta pelbagai algoritma yang menarik, seperti mengira token, menyusun, mencipta histogram dan mengenal pasti bahasa Dyck-k. Program yang ditulis dalam Bahasa Pemprosesan Urutan Akses Terhad (RASP) kemudiannya boleh dipetakan ke dalam rangkaian Transformer, yang saiznya biasanya berskala dengan saiz program.

Satu lagi kajian menunjukkan kaedah untuk memilih pemberat model Transformer untuk digunakan sebagai algoritma pengoptimuman untuk mempelajari model regresi linear secara dinamik, melaksanakan operasi tersirat pada masa inferens yang diberikan data latihan sebagai latihan gaya . Kaedah ini biasanya memerlukan beberapa lapisan yang berkadar dengan bilangan lelaran algoritma pembelajaran dan terhad kepada satu fungsi kehilangan dan ensemble model.

Keupayaan untuk memprogram model Transformer untuk meniru pengiraan abstrak mesin Turing, arahan khusus untuk bahasa seperti RASP, dan algoritma khusus untuk ICL, menyerlahkan potensi rangkaian Transformer sebagai komputer boleh atur cara yang serba boleh.

Penyelidikan penulis bertujuan untuk meneroka prospek yang menjanjikan ini dan mendedahkan bagaimana mekanisme Perhatian boleh mensimulasikan komputer tujuan umum yang diilhamkan oleh seni bina set arahan.

Transformer sebagai komputer boleh atur cara

Dalam artikel ini, penulis menunjukkan bahawa rangkaian Transformer boleh dibuat dengan pengekodan keras mereka dengan pemberat tertentu dan meletakkannya dalam gelung untuk mensimulasikan algoritma dan program yang kompleks. Penulis melakukan ini dengan Perhatian kejuruteraan terbalik untuk mensimulasikan blok pengiraan asas, seperti operasi penyuntingan pada jujukan input, fungsi tak linear, panggilan fungsi, pembilang program dan cawangan bersyarat. Makalah pengarang menunjukkan kepentingan menggunakan gelung tunggal atau rekursi untuk menggabungkan jujukan output Transformer kembali kepada inputnya, dengan itu mengelakkan keperluan untuk model yang mendalam.

Menggunakan Transformer sebagai komputer tujuan umum, ia juga boleh melaksanakan algoritma pembelajaran dalam konteks Penyelidikan ini sangat imaginatif.

Alamat kertas: https://arxiv.org/pdf/2301.13196.pdf

Pengarang mencapai ini dengan mereka bentuk Transformer yang boleh melaksanakan program yang ditulis dalam versi umum arahan tunggal, dipanggil SUBLEQ (A,B,C), iaitu jika kurang daripada atau sama dengan sifar, tolak dan gabungkan cawangan. SUBLEQ ialah bahasa satu arahan yang mentakrifkan komputer set satu arahan (OISC). SUBLEQ terdiri daripada tiga operan alamat memori Semasa pelaksanaan, nilai alamat memori B ditolak daripada nilai alamat memori A, dan hasilnya disimpan dalam B. Jika keputusan B kurang daripada atau sama dengan 0, lompat ke alamat C, jika tidak, teruskan dengan arahan seterusnya. Tetapi arahan ini mentakrifkan komputer tujuan umum.

Pengarang membina Transformer eksplisit yang melaksanakan program seperti SUBLEQ Pengarang memanggilnya FLEQ, arahan tunggal yang lebih fleksibel dalam bentuk

.

Menggunakan Transformer sebagai komputer tujuan umum, ia juga boleh melaksanakan algoritma pembelajaran dalam konteks Penyelidikan ini sangat imaginatif.

di mana f_m boleh dipilih daripada set fungsi (pendaraban matriks/fungsi bukan linear/polinomial, dsb.), yang boleh dikodkan keras ke dalam rangkaian. Kedalaman Transformer bergelung yang boleh melaksanakan program FLEQ tidak bergantung pada kedalaman program atau bilangan baris kod, sebaliknya pada kedalaman yang diperlukan untuk melaksanakan satu arahan FLEQ, yang malar. Ini dicapai dengan menjalankan Transformer dalam gelung ke atas jujukan input, sama seperti cara CPU beroperasi.

Pengarang menggunakan rangka kerja ini untuk menunjukkan keupayaan untuk mensimulasikan pelbagai fungsi semasa penaakulan, termasuk kalkulator asas, perpustakaan algebra linear asas (transpose matriks, pendaraban, songsang penyelesaian, lelaran kuasa) dan ICL melaksanakan penyebaran balik pada rangkaian tersambung sepenuhnya secara tersirat. Urutan input atau gesaan bertindak seperti kad tebuk, mengandungi arahan yang Transformer perlu laksanakan, sambil menyediakan ruang untuk menyimpan dan mengendalikan pembolehubah yang digunakan dalam program. Rangkaian Transformer yang digunakan untuk melaksanakan prosedur ini semuanya mempunyai kedalaman kurang daripada atau sama dengan 13, dan matriks berat untuk semua model ini disediakan. Teorem berikut meringkaskan penemuan utama pengarang:

Teorem 1: Terdapat Transformer kitaran dengan kurang daripada 13 lapisan, yang boleh mensimulasikan komputer tujuan umum (bahagian 5 artikel) , kalkulator asas (Bahagian 7 artikel), kaedah algebra linear berangka seperti penyongsangan matriks anggaran dan lelaran kuasa (Bahagian 8 artikel), dan algoritma ICL berdasarkan rangkaian saraf (seperti SGD) (Bahagian 9 artikel ).

Menggunakan Transformer sebagai komputer tujuan umum, ia juga boleh melaksanakan algoritma pembelajaran dalam konteks Penyelidikan ini sangat imaginatif.

Rajah 1: Gambar rajah skematik seni bina Transformer gelung, di mana arahan storan jujukan adalah input dan baca daripada / Memori untuk menulis data dan pad calar untuk menyimpan hasil perantaraan. Input diproses oleh rangkaian dan output digunakan sebagai input baharu, membolehkan rangkaian mengemas kini keadaan tersirat secara berulang dan melakukan pengiraan yang kompleks.

Penyelidikan penulis menyerlahkan fleksibiliti mekanisme Perhatian dan kepentingan gelung tunggal, yang memungkinkan untuk mereka bentuk model yang boleh mensimulasikan algoritma berulang yang kompleks dan melaksanakan program tujuan umum. dan seterusnya menunjukkan keupayaan model Transformer untuk melaksanakan tugasan matematik dan algoritma yang kompleks dengan cekap. Boleh dibayangkan bahawa Transformer moden, seperti GPT-3, menggunakan subrutin dalaman yang serupa apabila melakukan pelbagai tugas. Pada tahap tertentu, keupayaan teknik atau algoritma khusus model ini boleh dicerahkan apabila diberikan contoh dan penjelasan kontekstual, serupa dengan panggilan fungsi. Walau bagaimanapun, andaian ini harus dilayan dengan berhati-hati, kerana cara pengarang mereka bentuk struktur itu tidak mempunyai persamaan dengan cara model bahasa dunia sebenar dilatih.

Pengarang berharap kajian mereka akan menggalakkan penyelidikan lanjut tentang potensi mekanisme perhatian dan keupayaan model bahasa untuk melaksanakan arahan algoritma. Reka bentuk yang dicadangkan oleh pengarang boleh membantu menentukan saiz rangkaian Transformer minimum yang diperlukan untuk melaksanakan tugas algoritma tertentu. Di samping itu, penulis berharap penemuan mereka akan membantu memberi inspirasi kepada pembangunan kaedah untuk meningkatkan keupayaan untuk melatih model bahasa dengan memanfaatkan rangkaian Transformer kejuruteraan terbalik yang lebih kecil untuk mencapai tugas algoritma tertentu.

Membina modul Transformer untuk pengkomputeran am

Untuk menggunakan rangkaian Transformer untuk membina rangka kerja pengkomputeran umum, blok pengkomputeran khusus diperlukan. Pasang blok ini untuk mencipta fungsi akhir yang diingini. Berikut memberi tumpuan kepada pelbagai operasi yang boleh dilakukan oleh lapisan Transformer. Operasi ini akan menyediakan asas untuk mencipta rutin dan algoritma yang lebih kompleks. Operasi ini bertujuan untuk saling beroperasi antara satu sama lain, memanfaatkan keupayaan Perhatian untuk melaksanakan pelbagai tugas, seperti menjana anggaran matriks pilih atur dan menghampiri fungsi umum melalui fungsi sigmoid.

Menggunakan Transformer sebagai komputer tujuan umum, ia juga boleh melaksanakan algoritma pembelajaran dalam konteks Penyelidikan ini sangat imaginatif.

Rajah 2: Tiga blok Transformer digunakan sebagai blok binaan untuk melaksanakan komputer set arahan kecil gambarajah skematik. Blok ini mengendalikan operasi penyuntingan dalam urutan input (seperti mengalihkan atau menyalin dari satu blok ke blok lain), menjejak pembilang program dan melakukan lompatan pembilang program apabila syarat yang ditetapkan dipenuhi.

Pengekodan kedudukan, pembilang program dan penuding data

Pengubah biasanya perlu melakukan lelaran algoritma Atau laksanakan satu siri arahan. Untuk mencapai matlamat ini, penulis menggunakan pembilang program yang menggelung melalui arahan. Kaunter mengandungi kod untuk lokasi di mana arahan seterusnya disimpan. Selain itu, arahan mungkin mempunyai penunjuk data yang menunjuk ke lokasi data yang perlu dibaca dan ditulis oleh arahan. Kedua-dua pembilang program dan penuding data menggunakan pengekodan kedudukan yang sama yang dibincangkan dalam perenggan sebelumnya.

Menggunakan Transformer sebagai komputer tujuan umum, ia juga boleh melaksanakan algoritma pembelajaran dalam konteks Penyelidikan ini sangat imaginatif.

Skim pengekodan kedudukan pengarang juga boleh digunakan untuk menunjuk ke lokasi data tertentu untuk membaca atau menulis, yang akan dibincangkan di bawah Satu bahagian membincangkan. Ini dicapai dengan menggunakan vektor binari yang sama seperti pengekodan kedudukan untuk pembilang program dan penuding data. Selain itu, teknik menunjuk ke lokasi data tertentu ini membolehkan Transformers membaca/menulis data dengan cekap semasa melaksanakan algoritma atau urutan perintah yang dibina untuk dilaksanakan.

Baca/tulis: salin data dan arahan ke atau dari daftar sementara

Menggunakan Transformer sebagai komputer tujuan umum, ia juga boleh melaksanakan algoritma pembelajaran dalam konteks Penyelidikan ini sangat imaginatif.

Rajah 3: Gambarajah skematik operasi baca. Anak panah menunjukkan blok arahan yang disalin daripada bahagian input yang diberikan kepada arahan pad gores. Arahan ialah satu set petunjuk. Kod kedudukan dan kaunter digunakan untuk menjejak kandungan yang disalin di mana.

Lema berikut menyatakan bahawa arahan yang ditunjuk oleh pembilang program atau data di lokasi yang dinyatakan dalam arahan semasa boleh disalin ke pad gores untuk selanjutnya pengiraan. Lokasi kaunter program biasanya betul-betul di bawah kandungan pad conteng, tetapi boleh diubah sewenang-wenangnya. Mengekalkannya dalam kedudukan tertentu sepanjang pengiraan membantu memastikan struktur teratur.

Lemma seterusnya menerangkan bahawa vektor v yang disimpan dalam pad calar boleh disalin ke lokasi tertentu dalam ingatan, seperti yang ditentukan oleh pad calar itu sendiri. Ini membolehkan data dipindahkan dari pad calar ke lokasi tertentu dalam ingatan untuk kegunaan atau penyimpanan selanjutnya.

Menggunakan Transformer sebagai komputer tujuan umum, ia juga boleh melaksanakan algoritma pembelajaran dalam konteks Penyelidikan ini sangat imaginatif.

Rajah 4: Gambarajah skematik operasi tulis. Anak panah menunjukkan bahawa blok data sedang disalin dari pad calar ke lokasi yang ditentukan dalam bahagian input yang diperuntukkan kepada memori. Pengekodan kedudukan digunakan untuk menjejak lokasi sasaran dan memastikan data ditulis ke lokasi memori yang betul.

Menggunakan Transformer sebagai komputer tujuan umum, ia juga boleh melaksanakan algoritma pembelajaran dalam konteks Penyelidikan ini sangat imaginatif.

Cawangan bersyarat

Dalam bahagian ini, pengarang melaksanakan arahan cawangan bersyarat yang menilai keadaan dan menetapkan pembilang atur cara ke lokasi yang ditentukan apabila keadaan itu benar, atau menambah pembilang program sebanyak 1 apabila syarat itu palsu. Perintah

mempunyai bentuk: jika mem[a]≤0, kemudian pergi ke i, di mana mem[a] ialah nilai pada kedudukan dalam bahagian ingatan bagi jujukan input . Perintah ini mempunyai dua bahagian: menilai ketidaksamaan dan mengubah suai pembilang program.

Simulated Universal Single Instruction Set Computer

SUBLEQ Transformer

Mavaddat dan Parhami seawal 1988 Telah ditunjukkan pada tahun 2001 bahawa terdapat arahan dan mana-mana atur cara komputer boleh ditukar menjadi program yang terdiri daripada instantiasi arahan ini. Variasi arahan ini ialah SUBLEQ, yang boleh mengakses daftar atau lokasi memori yang berbeza.

Cara SUBLEQ berfungsi adalah mudah. Ia mengakses dua daftar dalam ingatan, mendapatkan perbezaan kandungannya dan menyimpannya kembali ke salah satu daftar, kemudian jika hasilnya negatif, ia melompat ke baris kod pratakrif yang berbeza atau meneruskan dengan arahan seterusnya bagi baris semasa . Komputer yang dibina untuk melaksanakan program SUBLEQ dipanggil komputer set arahan tunggal dan merupakan komputer tujuan umum, iaitu Turing lengkap jika ia mempunyai akses kepada memori tak terhingga.

Menggunakan Transformer sebagai komputer tujuan umum, ia juga boleh melaksanakan algoritma pembelajaran dalam konteks Penyelidikan ini sangat imaginatif.

Berikut menerangkan pembinaan Transformer gelung yang boleh melaksanakan atur cara yang ditulis dengan set arahan tertentu. Transformer menjejaki baris kod, lokasi memori, dan pembilang program, menggunakan bahagian memori input sebagai daftar memori dan bahagian arahan sebagai baris kod/arahan. Daftar sementara digunakan untuk merekod penambahan dan petunjuk yang terlibat dalam setiap arahan, bacaan, penulisan, operasi cawangan bersyarat, dsb.

Menggunakan Transformer sebagai komputer tujuan umum, ia juga boleh melaksanakan algoritma pembelajaran dalam konteks Penyelidikan ini sangat imaginatif.

Rajah 5: Perwakilan grafik bagi melaksanakan blok arahan OISC. Dua blok pertama memindahkan data/arahan ke pad awal, yang kedua dan ketiga melakukan penolakan dan menyimpan hasilnya, dan yang terakhir melakukan perintah if goto yang melengkapkan arahan.

FLEQ: Komputer berasaskan Perhatian yang lebih fleksibel

Dalam bahagian ini, penulis memperkenalkan FLEQ Untuk memperkenalkan, ia adalah generalisasi SUBLEQ, yang mentakrifkan komputer set arahan berkurangan yang lebih fleksibel. Set arahan tambahan tersirat ini adalah berdasarkan versi SUBLEQ yang lebih maju dan membolehkan berbilang fungsi dilaksanakan dalam rangkaian Transformer yang sama. Pengarang menggunakan istilah FLEQ untuk merujuk kepada arahan, bahasa, dan komputer berasaskan perhatian yang ditakrifkannya.

FLEQ direka bentuk untuk membenarkan pelaksanaan algoritma kompleks seperti pendaraban matriks, pengiraan punca kuasa dua, fungsi pengaktifan, dsb. dengan menjana fungsi yang lebih umum daripada penolakan mudah.

Kitaran pelaksanaan komputer berasaskan perhatian. Pada setiap lelaran Transformer gelung, arahan diambil daripada set arahan dalam input berdasarkan pembilang program. Arahan itu kemudiannya disalin ke pad conteng. Bergantung pada fungsi yang akan dilaksanakan, lokasi blok fungsi yang berbeza digunakan untuk merekodkan hasil fungsi secara setempat. Setelah keputusan dikira, ia disalin semula ke lokasi memori yang ditentukan yang disediakan oleh arahan.

Kitaran pelaksanaan adalah serupa dengan komputer set arahan tunggal (OISC) dalam bahagian sebelumnya, perbezaan utama ialah untuk setiap arahan, anda boleh memilih daripada senarai pra-pilihan fungsi. Fungsi mengambil input sebagai tatasusunan arbitrari, seperti matriks, vektor dan skalar.

Masukkan format jujukan. Seperti yang ditunjukkan dalam Rajah 6, input X pengubah gelung boleh melaksanakan program yang terdiri daripada satu siri arahan FLEQ (X terdiri daripada tiga bahagian: daftar sementara, ingatan dan arahan).

Format blok fungsi berasaskan Transformer. Setiap blok fungsi terletak di bahagian kiri bawah input X, seperti yang ditunjukkan dalam Rajah 6.

Menggunakan Transformer sebagai komputer tujuan umum, ia juga boleh melaksanakan algoritma pembelajaran dalam konteks Penyelidikan ini sangat imaginatif.

Rajah 6: Struktur input X untuk melaksanakan arahan FLEQ

Sila rujuk kertas asal untuk butiran lanjut teknikal dan contoh.

Atas ialah kandungan terperinci Menggunakan Transformer sebagai komputer tujuan umum, ia juga boleh melaksanakan algoritma pembelajaran dalam konteks Penyelidikan ini sangat imaginatif.. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Cara Memperbaiki Audio Jika anda tidak dapat mendengar sesiapa
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Cara Membuka Segala -galanya Di Myrise
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Kertas Stable Diffusion 3 akhirnya telah dikeluarkan, dan butiran seni bina didedahkan Adakah ia akan membantu untuk menghasilkan semula Sora? Kertas Stable Diffusion 3 akhirnya telah dikeluarkan, dan butiran seni bina didedahkan Adakah ia akan membantu untuk menghasilkan semula Sora? Mar 06, 2024 pm 05:34 PM

Kertas StableDiffusion3 akhirnya di sini! Model ini dikeluarkan dua minggu lalu dan menggunakan seni bina DiT (DiffusionTransformer) yang sama seperti Sora. Ia menimbulkan kekecohan apabila ia dikeluarkan. Berbanding dengan versi sebelumnya, kualiti imej yang dijana oleh StableDiffusion3 telah dipertingkatkan dengan ketara Ia kini menyokong gesaan berbilang tema, dan kesan penulisan teks juga telah dipertingkatkan, dan aksara bercelaru tidak lagi muncul. StabilityAI menegaskan bahawa StableDiffusion3 ialah satu siri model dengan saiz parameter antara 800M hingga 8B. Julat parameter ini bermakna model boleh dijalankan terus pada banyak peranti mudah alih, dengan ketara mengurangkan penggunaan AI

Adakah anda benar-benar menguasai penukaran sistem koordinat? Isu berbilang sensor yang tidak dapat dipisahkan daripada pemanduan autonomi Adakah anda benar-benar menguasai penukaran sistem koordinat? Isu berbilang sensor yang tidak dapat dipisahkan daripada pemanduan autonomi Oct 12, 2023 am 11:21 AM

Artikel perintis dan utama pertama terutamanya memperkenalkan beberapa sistem koordinat yang biasa digunakan dalam teknologi pemanduan autonomi, dan cara melengkapkan korelasi dan penukaran antara mereka, dan akhirnya membina model persekitaran bersatu. Fokus di sini adalah untuk memahami penukaran daripada kenderaan kepada badan tegar kamera (parameter luaran), penukaran kamera kepada imej (parameter dalaman) dan penukaran unit imej kepada piksel. Penukaran daripada 3D kepada 2D akan mempunyai herotan, terjemahan, dsb. Perkara utama: Sistem koordinat kenderaan dan sistem koordinat badan kamera perlu ditulis semula: sistem koordinat satah dan sistem koordinat piksel Kesukaran: herotan imej mesti dipertimbangkan Kedua-dua penyahherotan dan penambahan herotan diberi pampasan pada satah imej. 2. Pengenalan Terdapat empat sistem penglihatan secara keseluruhannya: sistem koordinat satah piksel (u, v), sistem koordinat imej (x, y), sistem koordinat kamera () dan sistem koordinat dunia (). Terdapat hubungan antara setiap sistem koordinat,

Artikel ini sudah cukup untuk anda membaca tentang pemanduan autonomi dan ramalan trajektori! Artikel ini sudah cukup untuk anda membaca tentang pemanduan autonomi dan ramalan trajektori! Feb 28, 2024 pm 07:20 PM

Ramalan trajektori memainkan peranan penting dalam pemanduan autonomi Ramalan trajektori pemanduan autonomi merujuk kepada meramalkan trajektori pemanduan masa hadapan kenderaan dengan menganalisis pelbagai data semasa proses pemanduan kenderaan. Sebagai modul teras pemanduan autonomi, kualiti ramalan trajektori adalah penting untuk kawalan perancangan hiliran. Tugas ramalan trajektori mempunyai timbunan teknologi yang kaya dan memerlukan kebiasaan dengan persepsi dinamik/statik pemanduan autonomi, peta ketepatan tinggi, garisan lorong, kemahiran seni bina rangkaian saraf (CNN&GNN&Transformer), dll. Sangat sukar untuk bermula! Ramai peminat berharap untuk memulakan ramalan trajektori secepat mungkin dan mengelakkan perangkap Hari ini saya akan mengambil kira beberapa masalah biasa dan kaedah pembelajaran pengenalan untuk ramalan trajektori! Pengetahuan berkaitan pengenalan 1. Adakah kertas pratonton teratur? A: Tengok survey dulu, hlm

DualBEV: mengatasi BEVFormer dan BEVDet4D dengan ketara, buka buku! DualBEV: mengatasi BEVFormer dan BEVDet4D dengan ketara, buka buku! Mar 21, 2024 pm 05:21 PM

Kertas kerja ini meneroka masalah mengesan objek dengan tepat dari sudut pandangan yang berbeza (seperti perspektif dan pandangan mata burung) dalam pemanduan autonomi, terutamanya cara mengubah ciri dari perspektif (PV) kepada ruang pandangan mata burung (BEV) dengan berkesan dilaksanakan melalui modul Transformasi Visual (VT). Kaedah sedia ada secara amnya dibahagikan kepada dua strategi: penukaran 2D kepada 3D dan 3D kepada 2D. Kaedah 2D-ke-3D meningkatkan ciri 2D yang padat dengan meramalkan kebarangkalian kedalaman, tetapi ketidakpastian yang wujud dalam ramalan kedalaman, terutamanya di kawasan yang jauh, mungkin menimbulkan ketidaktepatan. Manakala kaedah 3D ke 2D biasanya menggunakan pertanyaan 3D untuk mencuba ciri 2D dan mempelajari berat perhatian bagi kesesuaian antara ciri 3D dan 2D melalui Transformer, yang meningkatkan masa pengiraan dan penggunaan.

Model dunia penjanaan video adegan pemanduan berbilang paparan autonomi | Model dunia penjanaan video adegan pemanduan berbilang paparan autonomi | Oct 23, 2023 am 11:13 AM

Beberapa pemikiran peribadi pengarang Dalam bidang pemanduan autonomi, dengan pembangunan sub-tugas/penyelesaian hujung-ke-hujung berasaskan BEV, data latihan berbilang paparan berkualiti tinggi dan pembinaan adegan simulasi yang sepadan telah menjadi semakin penting. Sebagai tindak balas kepada titik kesakitan tugas semasa, "kualiti tinggi" boleh dipecahkan kepada tiga aspek: senario ekor panjang dalam dimensi berbeza: seperti kenderaan jarak dekat dalam data halangan dan sudut arah tepat semasa pemotongan kereta, dan data garis lorong. . Ini selalunya bergantung pada sejumlah besar pengumpulan data dan strategi perlombongan data yang kompleks, yang memerlukan kos yang tinggi. Nilai sebenar 3D - imej sangat konsisten: Pemerolehan data BEV semasa sering dipengaruhi oleh ralat dalam pemasangan/penentukuran sensor, peta berketepatan tinggi dan algoritma pembinaan semula itu sendiri. ini membawa saya kepada

GSLAM |. Seni bina dan penanda aras umum SLAM GSLAM |. Seni bina dan penanda aras umum SLAM Oct 20, 2023 am 11:37 AM

Tiba-tiba menemui kertas 19 tahun GSLAM: Rangka Kerja SLAM Umum dan kod sumber terbuka Penanda Aras: https://github.com/zdzhaoyong/GSLAM Pergi terus ke teks penuh dan rasai kualiti karya ini~1 Teknologi SLAM Abstrak telah mencapai banyak kejayaan baru-baru ini dan menarik ramai yang menarik perhatian syarikat berteknologi tinggi. Walau bagaimanapun, cara untuk antara muka dengan algoritma sedia ada atau yang baru muncul untuk melaksanakan penandaarasan dengan cekap pada kelajuan, kekukuhan dan mudah alih masih menjadi persoalan. Dalam kertas kerja ini, satu platform SLAM baharu yang dipanggil GSLAM dicadangkan, yang bukan sahaja menyediakan keupayaan penilaian tetapi juga menyediakan penyelidik dengan cara yang berguna untuk membangunkan sistem SLAM mereka sendiri dengan pantas.

'Minecraft' bertukar menjadi bandar AI, dan penduduk NPC memainkan peranan seperti orang sebenar 'Minecraft' bertukar menjadi bandar AI, dan penduduk NPC memainkan peranan seperti orang sebenar Jan 02, 2024 pm 06:25 PM

Sila ambil perhatian bahawa lelaki persegi ini berkerut dahi, memikirkan identiti "tetamu tidak diundang" di hadapannya. Ternyata dia berada dalam situasi berbahaya, dan apabila dia menyedari perkara ini, dia segera memulakan pencarian mental untuk mencari strategi untuk menyelesaikan masalah itu. Akhirnya, dia memutuskan untuk melarikan diri dari tempat kejadian dan kemudian mendapatkan bantuan secepat mungkin dan mengambil tindakan segera. Pada masa yang sama, orang di seberang sana memikirkan perkara yang sama seperti dia... Terdapat adegan sedemikian dalam "Minecraft" di mana semua watak dikawal oleh kecerdasan buatan. Setiap daripada mereka mempunyai latar identiti yang unik Contohnya, gadis yang disebutkan sebelum ini adalah seorang kurier berusia 17 tahun tetapi bijak dan berani. Mereka mempunyai daya ingatan dan pemikiran serta hidup seperti manusia di bandar kecil yang terletak di Minecraft ini. Apa yang mendorong mereka adalah sesuatu yang baru,

Lebih daripada sekadar Gaussian 3D! Gambaran keseluruhan terkini teknik pembinaan semula 3D yang terkini Lebih daripada sekadar Gaussian 3D! Gambaran keseluruhan terkini teknik pembinaan semula 3D yang terkini Jun 02, 2024 pm 06:57 PM

Ditulis di atas & Pemahaman peribadi penulis ialah pembinaan semula 3D berasaskan imej ialah tugas mencabar yang melibatkan membuat inferens bentuk 3D objek atau pemandangan daripada set imej input. Kaedah berasaskan pembelajaran telah menarik perhatian kerana keupayaan mereka untuk menganggar secara langsung bentuk 3D. Kertas ulasan ini memfokuskan pada teknik pembinaan semula 3D yang canggih, termasuk menjana novel, pandangan ghaib. Gambaran keseluruhan perkembangan terkini dalam kaedah percikan Gaussian disediakan, termasuk jenis input, struktur model, perwakilan output dan strategi latihan. Cabaran yang tidak dapat diselesaikan dan hala tuju masa depan turut dibincangkan. Memandangkan kemajuan pesat dalam bidang ini dan banyak peluang untuk meningkatkan kaedah pembinaan semula 3D, pemeriksaan menyeluruh terhadap algoritma nampaknya penting. Oleh itu, kajian ini memberikan gambaran menyeluruh tentang kemajuan terkini dalam serakan Gaussian. (Leret ibu jari anda ke atas

See all articles