Jadual Kandungan
Pemahaman Kod
Hasil eksperimen dan kesimpulan
Penjanaan Kod
Kesimpulan
Pengenalan kepada APEX Laboratory
Rumah Peranti teknologi AI Universiti Jiao Tong Shanghai mengeluarkan CodeApex, penanda aras penilaian pengaturcaraan dwibahasa model besar Adakah mesin benar-benar mula mencabar manusia dalam menulis kod?

Universiti Jiao Tong Shanghai mengeluarkan CodeApex, penanda aras penilaian pengaturcaraan dwibahasa model besar Adakah mesin benar-benar mula mencabar manusia dalam menulis kod?

Sep 05, 2023 pm 11:29 PM
data Model

Membina mesin yang boleh menulis kod mereka sendiri ialah matlamat yang telah diusahakan oleh perintis dalam sains komputer dan kecerdasan buatan. Dengan perkembangan pesat model besar jenis GPT, matlamat sedemikian menjadi lebih dekat berbanding sebelum ini.

Kemunculan Model Bahasa Besar telah menarik lebih banyak perhatian daripada penyelidik kepada keupayaan pengaturcaraan model. Di bawah keadaan ini, Makmal APEX Universiti Jiao Tong Shanghai melancarkan CodeApex - set data penanda aras dwibahasa yang memberi tumpuan kepada menilai pemahaman pengaturcaraan dan keupayaan penjanaan kod LLM.

Untuk menilai keupayaan pemahaman pengaturcaraan model bahasa besar, CodeApex telah mereka tiga jenis soalan aneka pilihan: pemahaman konsep, penaakulan akal dan penaakulan multi-hop. Selain itu, CodeApex juga menggunakan soalan algoritma dan kes ujian yang sepadan untuk menilai keupayaan penjanaan kod LLM. CodeApex menilai sejumlah 14 model bahasa besar pada tugas pengekodan. Antaranya, GPT3.5-turbo menunjukkan keupayaan pengaturcaraan terbaik, masing-masing mencapai kira-kira 50% dan 56% ketepatan pada kedua-dua tugas ini. Ia boleh dilihat bahawa model bahasa yang besar masih mempunyai banyak ruang untuk penambahbaikan dalam tugas pengaturcaraan Membina mesin yang boleh menulis kodnya sendiri adalah masa depan yang sangat menjanjikan. .

Kertas: https://apex.sjtu.edu.cn/codeapex/paper/Universiti Jiao Tong Shanghai mengeluarkan CodeApex, penanda aras penilaian pengaturcaraan dwibahasa model besar Adakah mesin benar-benar mula mencabar manusia dalam menulis kod?

  • Pengenalan
  • pengaturcaraan adalah tugas utama dalam kejuruteraan dan penjanaan kod Memainkan peranan penting dalam produktiviti pembangun, meningkatkan kualiti kod dan mengautomasikan proses pembangunan perisian. Walau bagaimanapun, tugasan ini masih mencabar untuk model besar disebabkan oleh kerumitan dan kepelbagaian semantik kod. Berbanding dengan pemprosesan bahasa semula jadi biasa, menggunakan LLM untuk menjana kod memerlukan lebih penekanan pada tatabahasa, struktur, pemprosesan terperinci dan pemahaman konteks, dan mempunyai keperluan yang sangat tinggi untuk ketepatan kandungan yang dijana. Pendekatan tradisional termasuk model berasaskan peraturan tatabahasa, model berasaskan templat dan model berasaskan peraturan, yang selalunya bergantung pada peraturan yang direka secara manual dan algoritma heuristik yang terhad dalam liputan dan ketepatan.
  • Dalam beberapa tahun kebelakangan ini, dengan kemunculan model pra-latihan berskala besar seperti CodeBERT dan GPT3.5, penyelidik telah mula meneroka aplikasi model ini dalam pemahaman pengaturcaraan dan tugas penjanaan kod. Model ini menyepadukan tugas penjanaan kod semasa latihan, membolehkan mereka memahami dan menjana kod. Walau bagaimanapun, penilaian yang saksama terhadap kemajuan LLM dalam pemahaman dan penjanaan kod adalah sukar kerana kekurangan set data penanda aras standard, tersedia secara umum, berkualiti tinggi dan pelbagai. Oleh itu, mewujudkan set data penanda aras yang meliputi semantik dan struktur kod secara meluas adalah penting untuk menggalakkan penyelidikan dalam pemahaman pengaturcaraan dan penjanaan kod.
  • Set data penanda aras kod sedia ada mempunyai masalah kebolehgunaan dan kepelbagaian apabila digunakan pada LLM. Contohnya, beberapa set data lebih sesuai untuk menilai LLM pemodelan bahasa dwiarah jenis Bert. Walau bagaimanapun, set data penanda aras kod berbilang bahasa sedia ada (seperti Human-Eval) mengandungi masalah yang agak mudah, kekurangan kepelbagaian dan hanya boleh melaksanakan beberapa kod fungsi asas.
  • Untuk mengisi jurang di atas, Makmal Pengurusan Data dan Pengetahuan APEX Universiti Jiao Tong Shanghai membina penanda aras penilaian baharu untuk pemahaman kod model besar dan penjanaan-CodeApex. Sebagai set data penanda aras dwibahasa (Bahasa Inggeris, Cina), CodeApex menumpukan pada menilai pemahaman pengaturcaraan dan keupayaan penjanaan kod LLM.

Adegan percubaan keseluruhan CodeApex ditunjukkan dalam gambar di atas.

Tugas pertama pemahaman pengaturcaraan termasuk 250 soalan aneka pilihan, yang dibahagikan kepada pemahaman konsep, penaakulan akal dan penaakulan multi-hop. Soalan yang digunakan untuk ujian dipilih daripada soalan peperiksaan akhir kursus yang berbeza (pengaturcaraan, struktur data, algoritma) di kolej dan universiti, yang mengurangkan risiko bahawa data sudah ada dalam korpus latihan LLM. CodeApex menguji keupayaan pemahaman kod LLM dalam tiga senario: 0-shot, 2-shot, dan 5-shot, dan juga menguji kesan mod Jawapan Sahaja dan Rantaian-Pemikiran terhadap keupayaan LLM.

Penjanaan kod tugas kedua termasuk 476 masalah algoritma berasaskan C++, meliputi mata pengetahuan algoritma biasa, seperti carian binari, carian mendalam-pertama, dsb. CodeApex memberikan penerangan tentang masalah dan prototaip fungsi yang melaksanakan masalah, dan memerlukan LLM untuk melengkapkan bahagian utama fungsi. CodeApex juga menyediakan dua senario: fungsi-sahaja dan fungsi-dengan-konteks Perbezaan di antara mereka ialah yang pertama hanya mempunyai perihalan fungsi sasaran, manakala yang kedua, sebagai tambahan kepada perihalan fungsi sasaran, juga disediakan. dengan kod panggilan dan masa fungsi sasaran, kekangan ruang, penerangan input dan output.

Hasil eksperimen menunjukkan bahawa model yang berbeza menunjukkan prestasi yang berbeza dalam tugas berkaitan kod, dan GPT3.5-turbo menunjukkan daya saing yang sangat baik dan kelebihan yang jelas. Tambahan pula, CodeApex membandingkan prestasi LLM dalam senario dwibahasa, mendedahkan hasil yang berbeza. Secara keseluruhannya, masih terdapat banyak ruang untuk penambahbaikan dalam ketepatan LLM dalam penarafan CodeApex, yang menunjukkan bahawa potensi LLM dalam tugas berkaitan kod masih belum dieksploitasi sepenuhnya.

Pemahaman Kod

Untuk menyepadukan sepenuhnya model bahasa besar ke dalam senario pengeluaran kod sebenar, pemahaman pengaturcaraan adalah penting. Pemahaman pengaturcaraan memerlukan keupayaan untuk memahami kod dari semua aspek, seperti menguasai sintaks, memahami aliran pelaksanaan kod, dan memahami algoritma pelaksanaan.

CodeApex mengekstrak 250 soalan aneka pilihan daripada soalan peperiksaan akhir kolej sebagai data ujian ini dibahagikan kepada tiga kategori: pemahaman konsep, penaakulan akal dan penaakulan multi-hop.

Universiti Jiao Tong Shanghai mengeluarkan CodeApex, penanda aras penilaian pengaturcaraan dwibahasa model besar Adakah mesin benar-benar mula mencabar manusia dalam menulis kod?

Mod ujian merangkumi dua kategori: Jawab-Sahaja dan Rantaian-Pemikiran.

Universiti Jiao Tong Shanghai mengeluarkan CodeApex, penanda aras penilaian pengaturcaraan dwibahasa model besar Adakah mesin benar-benar mula mencabar manusia dalam menulis kod?

Hasil eksperimen dan kesimpulan

Hasil penilaian Bahasa Cina dan Inggeris CodeApex mengenai tugas pemahaman kod ditunjukkan dalam dua jadual berikut. (Model berprestasi terbaik ditunjukkan dalam huruf tebal; model berprestasi terbaik seterusnya digariskan.)

Universiti Jiao Tong Shanghai mengeluarkan CodeApex, penanda aras penilaian pengaturcaraan dwibahasa model besar Adakah mesin benar-benar mula mencabar manusia dalam menulis kod?

Universiti Jiao Tong Shanghai mengeluarkan CodeApex, penanda aras penilaian pengaturcaraan dwibahasa model besar Adakah mesin benar-benar mula mencabar manusia dalam menulis kod?

Kesimpulan berikut boleh dibuat daripada ini:

  • Perbandingan kecekapan dwibahasa. Versi Cina mendapat markah lebih tinggi daripada versi Inggeris. Terdapat dua sebab utama: (1) Huraian soalan sumber datang daripada peperiksaan akhir universiti Cina, jadi soalan ujian pada asalnya dibentangkan dalam bahasa Cina. Walaupun diterjemahkan ke dalam bahasa Inggeris, ia masih mengandungi beberapa tabiat bahasa yang unik untuk orang Cina. Oleh itu, apabila soalan bahasa Inggeris berat sebelah ini dimasukkan ke dalam LLM, beberapa bunyi boleh dimasukkan ke dalam hasil pengekodan model. (2) Kebanyakan model yang dinilai terutamanya dilatih pada data Cina, yang membawa kepada keputusan yang buruk.
  • Perbandingan kebolehan pelbagai jenis soalan. Merentasi ketiga-tiga kategori masalah ini, kira-kira separuh daripada model menunjukkan prestasi terbaik dalam pemahaman konsep, menunjukkan bahawa mereka mungkin mengandungi pengetahuan tentang konsep pengaturcaraan semasa dilatih. Kebanyakan model mendapat skor yang lebih tinggi pada penaakulan akal berbanding dengan penaakulan multi-hop, menunjukkan bahawa kuasa LLM berkurangan dengan ketara dengan peningkatan langkah inferens.
  • Peranan model rantai pemikiran CoT. Ketepatan kebanyakan model dalam mod CoT adalah hampir atau lebih rendah daripada mod Jawab Sahaja. Terdapat dua sebab untuk fenomena ini: (1) Saiz model yang dinilai tidak mencapai saiz model dengan keupayaan kemunculan CoT. Penyelidikan terdahulu percaya bahawa kemunculan CoT memerlukan LLM mempunyai sekurang-kurangnya 60B parameter. Apabila bilangan parameter tidak mencukupi, persediaan CoT mungkin menimbulkan bunyi tambahan dan tindak balas yang dijana oleh LLM adalah tidak stabil. GPT3.5-turbo telah mencapai titik kemunculan keupayaan yang muncul dan boleh mencapai ketepatan yang lebih tinggi dalam tetapan CoT. (2) Apabila menjawab soalan pemahaman konsep dan penaakulan akal, penaakulan pelbagai langkah adalah kurang diperlukan. Oleh itu, keupayaan CoT LLM tidak dapat membantu masalah jenis ini. Walau bagaimanapun, untuk masalah inferens berbilang hop, sesetengah model (seperti ChatGLM2, educhat dan GPT3.5-turbo) telah meningkatkan ketepatan dengan ketara dalam senario CoT. (CodeApex mengecualikan CodeT5 daripada tetapan CoT kerana ketidakupayaannya untuk menjana respons melalui rantaian pemikiran.)

Penjanaan Kod

Melatih model bahasa yang besar untuk menjana kod yang tepat dan boleh laku adalah Tugas yang mencabar. CodeApex menilai terutamanya keupayaan LLM untuk menjana algoritma berdasarkan penerangan yang diberikan dan secara automatik menilai ketepatan kod yang dijana melalui ujian unit.

Tugas penjanaan kod CodeApex termasuk 476 masalah algoritma berasaskan C++, meliputi mata pengetahuan algoritma biasa, seperti carian binari dan algoritma graf. CodeApex memberikan penerangan tentang masalah dan prototaip fungsi yang melaksanakan masalah, dan memerlukan LLM untuk melengkapkan bahagian utama fungsi.

Universiti Jiao Tong Shanghai mengeluarkan CodeApex, penanda aras penilaian pengaturcaraan dwibahasa model besar Adakah mesin benar-benar mula mencabar manusia dalam menulis kod?

CodeApex menyediakan dua senario: Fungsi-sahaja dan Fungsi-dengan-konteks. Senario Fungsi sahaja hanya menyediakan penerangan tentang fungsi sasaran, manakala senario Fungsi dengan konteks bukan sahaja menyediakan penerangan tentang fungsi sasaran, tetapi juga menyediakan kod panggilan, kekangan masa dan ruang serta penerangan input dan output bagi fungsi sasaran.

Universiti Jiao Tong Shanghai mengeluarkan CodeApex, penanda aras penilaian pengaturcaraan dwibahasa model besar Adakah mesin benar-benar mula mencabar manusia dalam menulis kod?

Hasil eksperimen dan kesimpulan

Setiap versi bahasa menggunakan dua strategi Prompt (Fungsi-Sahaja dan Fungsi-dengan-Konteks). Untuk menyelaraskan dengan senario ujian kod manusia, metrik penilaian termasuk AC@1, AC@all dan kadar AC. Keputusan tugas penjanaan kod untuk setiap model ditunjukkan dalam dua jadual berikut. (Prestasi terbaik: tebal; prestasi kedua terbaik: garis bawah.)

Universiti Jiao Tong Shanghai mengeluarkan CodeApex, penanda aras penilaian pengaturcaraan dwibahasa model besar Adakah mesin benar-benar mula mencabar manusia dalam menulis kod?

Universiti Jiao Tong Shanghai mengeluarkan CodeApex, penanda aras penilaian pengaturcaraan dwibahasa model besar Adakah mesin benar-benar mula mencabar manusia dalam menulis kod?

Kesimpulan berikut boleh dibuat:

  • GPT3.5-turbo mengatasi 11 LLM yang lain, dengan purata skor melebihi 50%.
  • WizardCoder dan StarCoder menduduki tempat kedua dan ketiga, menonjolkan peningkatan ketara dalam keupayaan penjanaan kod melalui penalaan halus berasaskan kod.
  • Dalam tugas penjanaan kod, tiada perbezaan prestasi yang jelas antara model yang sedang diuji pada jenis soalan bahasa Cina dan Inggeris.

Selain itu, CodeApex menyediakan perkadaran kod yang boleh dikompilasi dalam setiap senario. Selepas menyambungkan fungsi yang dijana kepada fungsi utama, kod yang disusun disemak melalui kes ujian.

Universiti Jiao Tong Shanghai mengeluarkan CodeApex, penanda aras penilaian pengaturcaraan dwibahasa model besar Adakah mesin benar-benar mula mencabar manusia dalam menulis kod?

Anda boleh lihat:

  • Kebanyakan model mampu menjana lebih daripada 50% kod boleh kompilasi, yang membuktikan keupayaan LLM untuk memahami prototaip fungsi.
  • Selalunya, menyediakan maklumat kontekstual tentang fungsi boleh membantu LLM menjana kod yang boleh dikompilasi.

Kesimpulan

CodeApex, sebagai penanda aras dwibahasa yang memfokuskan pada keupayaan pengaturcaraan LLM, menilai pemahaman pengaturcaraan dan keupayaan penjanaan kod model bahasa besar. Dari segi pemahaman pengaturcaraan, CodeApex menilai kebolehan model yang berbeza dalam tiga kategori soalan aneka pilihan. Dari segi penjanaan kod, CodeApex menggunakan kadar lulus kes kod ujian untuk menilai keupayaan model. Untuk kedua-dua tugas ini, CodeApex mereka bentuk strategi Prompt dengan teliti dan membandingkannya dalam senario yang berbeza. CodeApex dinilai secara eksperimen pada 14 LLM, termasuk LLM umum dan model LLM khusus berdasarkan penalaan halus kod.

Pada masa ini, GPT3.5 telah mencapai tahap yang agak baik dari segi keupayaan pengaturcaraan, masing-masing mencapai ketepatan kira-kira 50% dan 56% dalam pemahaman pengaturcaraan dan penjanaan kod. CodeApex menunjukkan bahawa potensi model bahasa yang besar untuk tugas pengaturcaraan masih belum dieksploitasi sepenuhnya. Kami menjangkakan bahawa memanfaatkan model bahasa yang besar untuk menjana kod akan merevolusikan bidang pembangunan perisian dalam masa terdekat. Apabila pemprosesan bahasa semula jadi dan pembelajaran mesin semakin maju, model ini akan menjadi lebih berkuasa dan mahir dalam memahami dan menjana coretan kod. Pembangun akan mendapati mereka mempunyai sekutu yang tidak pernah berlaku sebelum ini dalam usaha pengekodan mereka, kerana mereka boleh bergantung pada model ini untuk mengautomasikan tugas yang membosankan, meningkatkan produktiviti mereka dan meningkatkan kualiti perisian.

Pada masa hadapan, CodeApex akan mengeluarkan lebih banyak ujian (seperti pembetulan kod) untuk menguji keupayaan kod model bahasa besar juga akan terus dikemas kini untuk menambah masalah kod yang lebih pelbagai. Pada masa yang sama, eksperimen manusia juga akan ditambahkan pada senarai CodeApex untuk membandingkan keupayaan pengekodan model bahasa besar dengan tahap manusia. CodeApex menyediakan penanda aras dan rujukan untuk penyelidikan tentang keupayaan pengaturcaraan model bahasa yang besar, dan akan menggalakkan pembangunan dan kemakmuran model bahasa besar dalam bidang kod.

Pengenalan kepada APEX Laboratory

Makmal Pengurusan Data dan Pengetahuan APEX Universiti Jiao Tong Shanghai telah ditubuhkan pada tahun 1996. Pengasasnya ialah Profesor Yu Yong, ketua guru kelas ACM. Makmal ini komited untuk meneroka teknologi kecerdasan buatan yang secara berkesan melombong dan mengurus data dan meringkaskan pengetahuan Ia telah menerbitkan lebih daripada 500 kertas akademik antarabangsa dan meneruskan aplikasi praktikal dalam senario sebenar. Sepanjang 27 tahun yang lalu, APEX Laboratory telah menjadi perintis global dalam banyak gelombang teknologi dunia Makmal ini mula mengkaji teknologi teras Web Semantik (kini dikenali sebagai Graf Pengetahuan) pada tahun 2000, dan mula mengkaji enjin carian yang diperibadikan dan. cadangan pada tahun 2003. Teknologi sistem, mula mempelajari teori dan algoritma pembelajaran pemindahan pada tahun 2006, mula meneroka teknologi pembelajaran mendalam pada tahun 2009 dan membangunkan perpustakaan latihan rangkaian saraf berdasarkan GPU. Semasa menghasilkan hasil penyelidikan dan pelaksanaan saintifik yang bermanfaat, APEX Lab juga telah membangunkan pasukan penyelidikan sains data dan pembelajaran mesin yang kukuh, termasuk Xue Guirong, Zhang Lei, Lin Chenxi, Liu Guangcan, Wang Haofen, Li Lei, Dai Wenyuan, Li Zhenhui, Chen Tianqi, Zhang Weinan, Yang Diyi dan alumni cemerlang lain dalam bidang kecerdasan buatan.

Atas ialah kandungan terperinci Universiti Jiao Tong Shanghai mengeluarkan CodeApex, penanda aras penilaian pengaturcaraan dwibahasa model besar Adakah mesin benar-benar mula mencabar manusia dalam menulis kod?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

Video Face Swap

Video Face Swap

Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Sumber terbuka! Di luar ZoeDepth! DepthFM: Anggaran kedalaman monokular yang cepat dan tepat! Sumber terbuka! Di luar ZoeDepth! DepthFM: Anggaran kedalaman monokular yang cepat dan tepat! Apr 03, 2024 pm 12:04 PM

0. Apakah fungsi artikel ini? Kami mencadangkan DepthFM: model anggaran kedalaman monokular generatif yang serba boleh dan pantas. Sebagai tambahan kepada tugas anggaran kedalaman tradisional, DepthFM juga menunjukkan keupayaan terkini dalam tugas hiliran seperti mengecat kedalaman. DepthFM cekap dan boleh mensintesis peta kedalaman dalam beberapa langkah inferens. Mari kita baca karya ini bersama-sama ~ 1. Tajuk maklumat kertas: DepthFM: FastMonocularDepthEstimationwithFlowMatching Pengarang: MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

Model MoE sumber terbuka paling berkuasa di dunia ada di sini, dengan keupayaan bahasa Cina setanding dengan GPT-4, dan harganya hanya hampir satu peratus daripada GPT-4-Turbo Model MoE sumber terbuka paling berkuasa di dunia ada di sini, dengan keupayaan bahasa Cina setanding dengan GPT-4, dan harganya hanya hampir satu peratus daripada GPT-4-Turbo May 07, 2024 pm 04:13 PM

Bayangkan model kecerdasan buatan yang bukan sahaja mempunyai keupayaan untuk mengatasi pengkomputeran tradisional, tetapi juga mencapai prestasi yang lebih cekap pada kos yang lebih rendah. Ini bukan fiksyen sains, DeepSeek-V2[1], model MoE sumber terbuka paling berkuasa di dunia ada di sini. DeepSeek-V2 ialah gabungan model bahasa pakar (MoE) yang berkuasa dengan ciri-ciri latihan ekonomi dan inferens yang cekap. Ia terdiri daripada 236B parameter, 21B daripadanya digunakan untuk mengaktifkan setiap penanda. Berbanding dengan DeepSeek67B, DeepSeek-V2 mempunyai prestasi yang lebih kukuh, sambil menjimatkan 42.5% kos latihan, mengurangkan cache KV sebanyak 93.3% dan meningkatkan daya pemprosesan penjanaan maksimum kepada 5.76 kali. DeepSeek ialah sebuah syarikat yang meneroka kecerdasan buatan am

Apr 09, 2024 am 11:52 AM

AI memang mengubah matematik. Baru-baru ini, Tao Zhexuan, yang telah mengambil perhatian terhadap isu ini, telah memajukan keluaran terbaru "Buletin Persatuan Matematik Amerika" (Buletin Persatuan Matematik Amerika). Memfokuskan pada topik "Adakah mesin akan mengubah matematik?", ramai ahli matematik menyatakan pendapat mereka Seluruh proses itu penuh dengan percikan api, tegar dan menarik. Penulis mempunyai barisan yang kuat, termasuk pemenang Fields Medal Akshay Venkatesh, ahli matematik China Zheng Lejun, saintis komputer NYU Ernest Davis dan ramai lagi sarjana terkenal dalam industri. Dunia AI telah berubah secara mendadak Anda tahu, banyak artikel ini telah dihantar setahun yang lalu.

Hello, Atlas elektrik! Robot Boston Dynamics hidup semula, gerakan pelik 180 darjah menakutkan Musk Hello, Atlas elektrik! Robot Boston Dynamics hidup semula, gerakan pelik 180 darjah menakutkan Musk Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas secara rasmi memasuki era robot elektrik! Semalam, Atlas hidraulik hanya "menangis" menarik diri daripada peringkat sejarah Hari ini, Boston Dynamics mengumumkan bahawa Atlas elektrik sedang berfungsi. Nampaknya dalam bidang robot humanoid komersial, Boston Dynamics berazam untuk bersaing dengan Tesla. Selepas video baharu itu dikeluarkan, ia telah pun ditonton oleh lebih sejuta orang dalam masa sepuluh jam sahaja. Orang lama pergi dan peranan baru muncul. Ini adalah keperluan sejarah. Tidak dinafikan bahawa tahun ini adalah tahun letupan robot humanoid. Netizen mengulas: Kemajuan robot telah menjadikan majlis pembukaan tahun ini kelihatan seperti manusia, dan tahap kebebasan adalah jauh lebih besar daripada manusia Tetapi adakah ini benar-benar bukan filem seram? Pada permulaan video, Atlas berbaring dengan tenang di atas tanah, seolah-olah terlentang. Apa yang berikut adalah rahang-jatuh

Kelajuan Internet Data Selular Perlahan pada iPhone: Pembetulan Kelajuan Internet Data Selular Perlahan pada iPhone: Pembetulan May 03, 2024 pm 09:01 PM

Menghadapi ketinggalan, sambungan data mudah alih perlahan pada iPhone? Biasanya, kekuatan internet selular pada telefon anda bergantung pada beberapa faktor seperti rantau, jenis rangkaian selular, jenis perayauan, dsb. Terdapat beberapa perkara yang boleh anda lakukan untuk mendapatkan sambungan Internet selular yang lebih pantas dan boleh dipercayai. Betulkan 1 – Paksa Mulakan Semula iPhone Kadangkala, paksa memulakan semula peranti anda hanya menetapkan semula banyak perkara, termasuk sambungan selular. Langkah 1 – Hanya tekan kekunci naikkan kelantangan sekali dan lepaskan. Seterusnya, tekan kekunci Turun Kelantangan dan lepaskannya semula. Langkah 2 - Bahagian seterusnya proses adalah untuk menahan butang di sebelah kanan. Biarkan iPhone selesai dimulakan semula. Dayakan data selular dan semak kelajuan rangkaian. Semak semula Betulkan 2 – Tukar mod data Walaupun 5G menawarkan kelajuan rangkaian yang lebih baik, ia berfungsi lebih baik apabila isyarat lemah

KAN, yang menggantikan MLP, telah diperluaskan kepada konvolusi oleh projek sumber terbuka KAN, yang menggantikan MLP, telah diperluaskan kepada konvolusi oleh projek sumber terbuka Jun 01, 2024 pm 10:03 PM

Awal bulan ini, penyelidik dari MIT dan institusi lain mencadangkan alternatif yang sangat menjanjikan kepada MLP - KAN. KAN mengatasi MLP dari segi ketepatan dan kebolehtafsiran. Dan ia boleh mengatasi prestasi MLP berjalan dengan bilangan parameter yang lebih besar dengan bilangan parameter yang sangat kecil. Sebagai contoh, penulis menyatakan bahawa mereka menggunakan KAN untuk menghasilkan semula keputusan DeepMind dengan rangkaian yang lebih kecil dan tahap automasi yang lebih tinggi. Khususnya, MLP DeepMind mempunyai kira-kira 300,000 parameter, manakala KAN hanya mempunyai kira-kira 200 parameter. KAN mempunyai asas matematik yang kukuh seperti MLP berdasarkan teorem penghampiran universal, manakala KAN berdasarkan teorem perwakilan Kolmogorov-Arnold. Seperti yang ditunjukkan dalam rajah di bawah, KAN telah

Daya hidup kecerdasan super membangkitkan! Tetapi dengan kedatangan AI yang mengemas kini sendiri, ibu tidak perlu lagi bimbang tentang kesesakan data Daya hidup kecerdasan super membangkitkan! Tetapi dengan kedatangan AI yang mengemas kini sendiri, ibu tidak perlu lagi bimbang tentang kesesakan data Apr 29, 2024 pm 06:55 PM

Saya menangis hingga mati. Dunia sedang membina model besar. Data di Internet tidak mencukupi. Model latihan kelihatan seperti "The Hunger Games", dan penyelidik AI di seluruh dunia bimbang tentang cara memberi makan data ini kepada pemakan yang rakus. Masalah ini amat ketara dalam tugas berbilang modal. Pada masa mereka mengalami kerugian, pasukan pemula dari Jabatan Universiti Renmin China menggunakan model baharu mereka sendiri untuk menjadi yang pertama di China untuk menjadikan "suapan data yang dijana model itu sendiri" menjadi kenyataan. Selain itu, ia merupakan pendekatan serampang dua mata dari segi pemahaman dan sisi penjanaan Kedua-dua pihak boleh menjana data baharu berbilang modal yang berkualiti tinggi dan memberikan maklum balas data kepada model itu sendiri. Apakah model? Awaker 1.0, model berbilang modal besar yang baru sahaja muncul di Forum Zhongguancun. Siapa pasukan itu? Enjin Sophon. Diasaskan oleh Gao Yizhao, pelajar kedoktoran di Sekolah Kecerdasan Buatan Hillhouse Universiti Renmin.

FisheyeDetNet: algoritma pengesanan sasaran pertama berdasarkan kamera fisheye FisheyeDetNet: algoritma pengesanan sasaran pertama berdasarkan kamera fisheye Apr 26, 2024 am 11:37 AM

Pengesanan objek ialah masalah yang agak matang dalam sistem pemanduan autonomi, antaranya pengesanan pejalan kaki adalah salah satu algoritma terawal untuk digunakan. Penyelidikan yang sangat komprehensif telah dijalankan dalam kebanyakan kertas kerja. Walau bagaimanapun, persepsi jarak menggunakan kamera fisheye untuk pandangan sekeliling agak kurang dikaji. Disebabkan herotan jejari yang besar, perwakilan kotak sempadan standard sukar dilaksanakan dalam kamera fisheye. Untuk mengurangkan perihalan di atas, kami meneroka kotak sempadan lanjutan, elips dan reka bentuk poligon am ke dalam perwakilan kutub/sudut dan mentakrifkan metrik mIOU pembahagian contoh untuk menganalisis perwakilan ini. Model fisheyeDetNet yang dicadangkan dengan bentuk poligon mengatasi model lain dan pada masa yang sama mencapai 49.5% mAP pada set data kamera fisheye Valeo untuk pemanduan autonomi

See all articles