기술 주변기기 일체 포함 RNN 효율성은 Transformer와 비슷합니다. Google의 새로운 아키텍처는 두 번 연속 출시되었습니다. 동일한 규모에서 Mamba보다 강력합니다.

RNN 효율성은 Transformer와 비슷합니다. Google의 새로운 아키텍처는 두 번 연속 출시되었습니다. 동일한 규모에서 Mamba보다 강력합니다.

Aug 05, 2024 pm 02:20 PM
산업 mamba Griffin Hawk

지난해 12월, 새로운 아키텍처인 Mamba 가 AI 서클을 폭파하고 부동의 트랜스포머에 대한 도전을 시작했습니다. 오늘날 Google DeepMind “Hawk” 및 “Griffin”의 출시는 AI 서클에 새로운 옵션을 제공합니다.


이번에 구글 딥마인드는 기본 모델에서 새로운 행보를 보였습니다.

우리는 순환 신경망(RNN)이 딥 러닝 및 자연어 처리 연구 초기에 중심 역할을 했으며 Google 최초의 엔드투엔드 기계 번역 시스템을 비롯한 많은 애플리케이션에서 실질적인 결과를 달성했다는 것을 알고 있습니다. . 그러나 최근에는 MLP(Multi-Layer Perceptron)와 MHA(Multi-Head Attention)를 결합한 Transformer 아키텍처가 딥러닝과 NLP를 주도하고 있습니다.

Transformer는 실제로 RNN보다 더 나은 성능을 달성했으며 최신 하드웨어를 활용하는 데에도 매우 효율적입니다. Transformer 기반 대규모 언어 모델은 웹에서 수집된 대규모 데이터 세트를 통해 놀라운 성공을 거두었습니다.

큰 성공을 거두었음에도 불구하고 Transformer 아키텍처에는 여전히 단점이 있습니다. 예를 들어, 전 세계적으로 주목받는 2차 복잡성으로 인해 Transformer는 긴 시퀀스로 효과적으로 확장하기가 어렵습니다. 또한 KV(키-값) 캐시는 시퀀스 길이에 따라 선형적으로 증가하므로 추론 중에 Transformer의 속도가 느려집니다. 이 시점에서 순환 언어 모델은 대안이 되며 전체 시퀀스를 고정된 크기의 숨겨진 상태로 압축하고 반복적으로 업데이트할 수 있습니다. 그러나 Transformer를 대체하려면 새로운 RNN 모델이 확장성 측면에서 비슷한 성능을 보여줄 뿐만 아니라 비슷한 하드웨어 효율성도 달성해야 합니다.

Google DeepMind의 최근 논문에서 연구원들은 새로운 게이트 선형 루프 계층인 RG-LRU 계층을 제안하고 MQA(Multi-Query Attention)를 대체하기 위해 그 주위에 새로운 루프 블록을 설계했습니다.

이 루프 블록을 사용하여 두 가지 새로운 모델을 만들었습니다. 하나는 MLP와 루프 블록을 혼합한 모델 Hawk이고, 다른 하나는 MLP와 루프 블록 및 로컬 관심을 혼합한 모델 Griffin입니다.

RNN 효율성은 Transformer와 비슷합니다. Google의 새로운 아키텍처는 두 번 연속 출시되었습니다. 동일한 규모에서 Mamba보다 강력합니다.

  • 논문 제목: Griffin: Mixing Gated Linear Recurrences with Local Attention for Efficient Language Models
  • 논문 링크: https://arxiv.org/pdf/2402.19427.pdf

연구원들은 Hawk와 Griffin이 이전에 Transformers에서 관찰된 것처럼 유지 손실과 훈련 FLOP 사이의 최대 7B 매개변수 사이의 거듭제곱 법칙을 보여준다고 말합니다. 그중 Griffin은 모든 모델 크기에서 강력한 Transformer 기준선보다 약간 더 낮은 유지 손실을 달성합니다.

RNN 효율성은 Transformer와 비슷합니다. Google의 새로운 아키텍처는 두 번 연속 출시되었습니다. 동일한 규모에서 Mamba보다 강력합니다.

연구원들은 다양한 모델 크기에 대해 300B 토큰에 대해 Hawk와 Griffin을 과도하게 훈련시켰습니다. 결과는 훈련된 토큰의 수가 절반에 불과했지만 다운스트림 작업 성능에서 Hawk-3B가 Mamba-3B를 능가한 것으로 나타났습니다. 후자. Griffin-7B와 Griffin-14B는 토큰 수의 1/7만 사용하여 훈련했음에도 불구하고 Llama-2와 비슷한 성능을 발휘합니다.

또한 Hawk와 Griffin은 TPU-v3에서 Transformers와 비슷한 훈련 효율성을 달성했습니다. 대각선 RNN 레이어는 메모리가 제한되어 있으므로 연구원들은 이를 달성하기 위해 RG-LRU 레이어의 커널을 사용했습니다.

또한 추론 중에 Hawk와 Griffin은 모두 MQA Transformer보다 더 높은 처리량을 달성하고 긴 시퀀스를 샘플링할 때 더 낮은 대기 시간을 달성합니다. Griffin은 평가되는 시퀀스가 ​​훈련에서 관찰된 것보다 길 때 Transformers보다 더 나은 성능을 발휘하며 훈련 데이터에서 복사 및 검색 작업을 효과적으로 학습할 수 있습니다. 그러나 사전 훈련된 모델을 미세 조정 없이 복사 및 정확한 검색 작업에서 평가했을 때 Hawk와 Griffin은 Transformers보다 성능이 나빴습니다.

공저자이자 DeepMind 연구 과학자인 Aleksandar Botev는 Gated Linear Loop와 Local Attention을 혼합한 모델인 Griffin이 RNN의 고효율 장점과 Transformer의 표현 능력을 모두 유지하며 확장이 가능하다고 말했습니다. 14B 매개변수 규모.

RNN 효율성은 Transformer와 비슷합니다. Google의 새로운 아키텍처는 두 번 연속 출시되었습니다. 동일한 규모에서 Mamba보다 강력합니다.                                                                  출처: https://twitter.com/botev_mg/status/1763489 634082795780

Seni Bina Model Griffin

Griffin Semua model mengandungi komponen berikut: (i) blok baki, (ii) blok MLP, (iii) blok campuran temporal. (i) dan (ii) adalah sama untuk semua model, tetapi terdapat tiga blok pencampuran temporal: perhatian berbilang pertanyaan global (MQA), tempatan (tetingkap gelongsor) MQA dan blok berulang yang dicadangkan dalam kertas ini. Sebagai sebahagian daripada blok berulang, penyelidik menggunakan Unit Berulang Linear Really Gated (RG-LRU), lapisan berulang baharu yang diilhamkan oleh unit berulang linear.

Seperti yang ditunjukkan dalam Rajah 2(a), blok sisa mentakrifkan struktur global model Griffin, yang diilhamkan oleh pra-normTransformer. Selepas membenamkan jujukan input, kami meneruskannya melalui blok seperti ? (? mewakili kedalaman model) dan kemudian menggunakan RMSNorm untuk menjana pengaktifan akhir. Untuk mengira kebarangkalian token, lapisan linear akhir digunakan, diikuti dengan softmax. Berat lapisan ini dikongsi dengan lapisan pembenaman input.

RNN 효율성은 Transformer와 비슷합니다. Google의 새로운 아키텍처는 두 번 연속 출시되었습니다. 동일한 규모에서 Mamba보다 강력합니다.

Model berulang, kecekapan penskalaan setanding dengan Transformer

Penyelidikan penskalaan memberikan pandangan penting tentang cara melaraskan hiperparameter model dan kelakuannya semasa menskala.

Para penyelidik mentakrifkan model yang dinilai dalam kajian ini, menyediakan lengkung penskalaan sehingga dan melebihi parameter 7B, dan menilai prestasi model pada tugas hiliran.

Mereka menganggap 3 keluarga model: (1) Garis dasar MQA-Transformer; (2) Hawk: model RNN tulen; (3) Griffin: model hibrid yang mencampurkan blok berulang dengan perhatian tempatan. Hiperparameter model utama untuk model pelbagai saiz ditakrifkan dalam Lampiran C.

Seni bina Hawk menggunakan corak sisa dan blok MLP yang sama seperti garis dasar Transformer, tetapi penyelidik menggunakan blok berulang dengan lapisan RG-LRU sebagai blok campuran temporal dan bukannya MQA. Mereka mengembangkan lebar blok gelung dengan faktor kira-kira 4/3 (iaitu, ?_??? ≈4?/3) untuk memadankan secara kasar bilangan parameter blok MHA apabila kedua-duanya menggunakan dimensi model yang sama ?.

Griffin. Kelebihan utama blok berulang berbanding perhatian global ialah ia menggunakan saiz keadaan tetap untuk meringkaskan jujukan, manakala saiz cache KV MQA berkembang secara berkadar dengan panjang jujukan. Perhatian tempatan mempunyai sifat yang sama, dan mencampurkan blok berulang dengan perhatian tempatan mengekalkan kelebihan ini. Para penyelidik mendapati gabungan ini sangat cekap kerana perhatian tempatan boleh memodelkan masa lalu dengan tepat, manakala lapisan berulang boleh menyampaikan maklumat dalam urutan yang panjang.

Griffin menggunakan corak sisa dan blok MLP yang sama seperti garis dasar Transformer. Tetapi tidak seperti garis dasar Transformer MQA dan model Hawk, Griffin menggunakan gabungan blok gelung dan blok MQA. Khususnya, kami menggunakan struktur hierarki yang menggantikan dua blok baki dengan blok berulang dan kemudian blok perhatian setempat (MQA). Melainkan dinyatakan sebaliknya, saiz tetingkap perhatian tempatan ditetapkan pada 1024 token.

Hasil penskalaan utama ditunjukkan dalam Rajah 1(a). Ketiga-tiga keluarga model telah dilatih pada saiz model antara 100 juta hingga 7 bilion parameter, walaupun Griffin mempunyai versi 14 bilion parameter. Keputusan penilaian

pada tugasan hiliran ditunjukkan dalam Jadual 1:

RNN 효율성은 Transformer와 비슷합니다. Google의 새로운 아키텍처는 두 번 연속 출시되었습니다. 동일한 규모에서 Mamba보다 강력합니다.

Hawk dan Griffin kedua-duanya bermain dengan sangat baik. Jadual di atas melaporkan ketepatan dinormalisasi ciri untuk MMLU, HellaSwag, PIQA, ARC-E dan ARC-C, sambil melaporkan ketepatan mutlak dan skor separa untuk WinoGrande. Apabila saiz model bertambah, prestasi Hawk juga meningkat dengan ketara, dan Hawk-3B berprestasi lebih baik daripada Mamba-3B dalam tugas hiliran, walaupun bilangan token yang dilatihnya hanya separuh daripada Mamba-3B. Prestasi Griffin-3B jauh lebih baik daripada Mamba-3B, dan Griffin-7B dan Griffin-14B berprestasi setanding dengan Llama-2, walaupun mereka dilatih menggunakan token hampir 7x lebih sedikit. Hawk adalah setanding dengan garis dasar Transformer MQA, manakala Griffin mengatasinya.

Melatih model gelung pada sisi peranti dengan cekap

Apabila membangunkan dan memanjangkan model, penyelidik menghadapi dua cabaran kejuruteraan utama. Pertama, cara mengecilkan model pemprosesan serpihan merentas berbilang peranti. Kedua, bagaimana untuk melaksanakan gelung linear dengan berkesan untuk memaksimumkan kecekapan latihan TPU. Artikel ini membincangkan kedua-dua cabaran ini dan kemudian memberikan perbandingan empirikal kelajuan latihan garis dasar Griffin dan MQA.

Para penyelidik membandingkan kelajuan latihan saiz model yang berbeza dan panjang jujukan untuk mengkaji kelebihan pengiraan model dalam artikel ini semasa proses latihan. Jumlah bilangan token setiap kelompok dikekalkan tetap untuk setiap saiz model, yang bermaksud bahawa apabila panjang jujukan bertambah, bilangan jujukan berkurangan secara berkadar.

Rajah 3 memplot masa berjalan relatif model Griffin berbanding model garis dasar MQA pada panjang jujukan 2048.

RNN 효율성은 Transformer와 비슷합니다. Google의 새로운 아키텍처는 두 번 연속 출시되었습니다. 동일한 규모에서 Mamba보다 강력합니다.

Kelajuan inferens

Inferens LLM terdiri daripada dua peringkat. Fasa "praisi" adalah untuk menerima dan memproses gesaan. Langkah ini sebenarnya melakukan hantaran ke hadapan pada model. Memandangkan gesaan boleh diproses secara selari sepanjang jujukan, kebanyakan operasi model pada peringkat ini terikat secara pengiraan Oleh itu, kami menjangkakan kelajuan relatif Transformer dan model gelung dalam peringkat pra-populasi adalah sama seperti yang dibincangkan sebelum ini semasa latihan adalah serupa.

Selepas pra-populasi ialah peringkat penyahkodan, di mana penyelidik secara autoregresif mengekstrak token daripada model. Seperti yang ditunjukkan di bawah, terutamanya untuk panjang jujukan yang lebih panjang, di mana cache nilai kunci (KV) yang digunakan dalam perhatian menjadi besar, model berulang mempunyai kependaman yang lebih rendah dan daya pemprosesan yang lebih tinggi dalam peringkat penyahkodan.

Terdapat dua metrik utama untuk dipertimbangkan semasa menilai kelajuan inferens. Yang pertama ialah kependaman, yang mengukur masa yang diperlukan untuk menjana bilangan token tertentu pada saiz kelompok tertentu. Yang kedua ialah throughput, yang mengukur bilangan maksimum token yang boleh dijana sesaat apabila mensampel bilangan token yang ditentukan pada satu peranti. Oleh kerana daya pemprosesan dikira sebagai bilangan token yang disampel didarab dengan saiz kelompok dibahagikan dengan kependaman, anda boleh meningkatkan daya pemprosesan dengan mengurangkan kependaman atau mengurangkan penggunaan memori untuk menggunakan saiz kelompok yang lebih besar pada peranti. Mengambil kira kependaman berguna untuk aplikasi masa nyata yang memerlukan masa tindak balas yang cepat. Throughput juga patut dipertimbangkan kerana ia memberitahu kami bilangan maksimum token yang boleh diambil sampel daripada model tertentu dalam masa tertentu. Sifat ini menarik apabila mempertimbangkan aplikasi bahasa lain, seperti pembelajaran pengukuhan berdasarkan maklum balas manusia (RLHF) atau output model bahasa pemarkahan (seperti yang dilakukan dalam AlphaCode), kerana dapat mengeluarkan sejumlah besar token dalam masa tertentu adalah Satu yang menarik. ciri.

Di sini, penyelidik mengkaji keputusan inferens model dengan parameter 1B. Dari segi garis dasar, ia dibandingkan dengan Transformer MQA, yang jauh lebih pantas semasa inferens daripada Transformer MHA standard yang biasa digunakan dalam literatur. Model yang dibandingkan oleh penyelidik ialah: i) penukar MQA, ii) Hawk dan iii) Griffin. Untuk membandingkan model yang berbeza, kami melaporkan kependaman dan daya pemprosesan.

Seperti yang ditunjukkan dalam Rajah 4, penyelidik membandingkan kependaman model dengan saiz kelompok 16, pra-isi kosong dan pra-isi 4096 token.

RNN 효율성은 Transformer와 비슷합니다. Google의 새로운 아키텍처는 두 번 연속 출시되었습니다. 동일한 규모에서 Mamba보다 강력합니다.

Rajah 1(b) membandingkan daya pemprosesan maksimum (token/saat) bagi model yang sama apabila masing-masing mengambil sampel 512, 1024, 2048 dan 4196 token selepas pembayang kosong. . Prestasi Griffin pada tugas yang memerlukan kebolehan menyalin dan mendapatkan semula juga diterokai, kedua-duanya dalam model yang dilatih untuk tugasan tersebut dan apabila kebolehan ini diuji menggunakan model bahasa yang telah dilatih.

Daripada graf di sebelah kiri Rajah 5, boleh diperhatikan bahawa dalam julat panjang maksimum tertentu, kedua-dua Hawk dan Griffin boleh meningkatkan keupayaan ramalan token seterusnya dalam konteks yang lebih panjang, dan mereka secara keseluruhannya Mampu untuk membuat kesimpulan urutan yang lebih panjang (sekurang-kurangnya 4 kali) daripada semasa dilatih. Griffin, khususnya, menunjukkan prestasi yang sangat baik dalam penaakulan walaupun semasa menggunakan RoPE dalam lapisan perhatian setempat.

Seperti yang ditunjukkan dalam Rajah 6, dalam tugasan penyalinan terpilih, kesemua 3 model dapat menyelesaikan tugasan dengan sempurna. Apabila membandingkan kelajuan pembelajaran pada tugasan ini, Hawk adalah lebih perlahan daripada Transformer, yang serupa dengan pemerhatian Jelassi et al (2024) yang mendapati bahawa Mamba belajar dengan ketara lebih perlahan pada tugasan yang serupa. Menariknya, walaupun Griffin hanya menggunakan lapisan perhatian tempatan, kelajuan pembelajarannya hampir tidak diperlahankan dan setanding dengan kelajuan pembelajaran Transformer.

Untuk butiran lanjut, sila baca kertas asal.

위 내용은 RNN 효율성은 Transformer와 비슷합니다. Google의 새로운 아키텍처는 두 번 연속 출시되었습니다. 동일한 규모에서 Mamba보다 강력합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

딥마인드 로봇이 탁구를 치는데 포핸드와 백핸드가 공중으로 미끄러져 인간 초보자를 완전히 제압했다. 딥마인드 로봇이 탁구를 치는데 포핸드와 백핸드가 공중으로 미끄러져 인간 초보자를 완전히 제압했다. Aug 09, 2024 pm 04:01 PM

하지만 공원에 있는 노인을 이길 수는 없을까요? 파리올림픽이 본격화되면서 탁구가 많은 주목을 받고 있다. 동시에 로봇은 탁구 경기에서도 새로운 돌파구를 마련했습니다. 방금 DeepMind는 탁구 경기에서 인간 아마추어 선수 수준에 도달할 수 있는 최초의 학습 로봇 에이전트를 제안했습니다. 논문 주소: https://arxiv.org/pdf/2408.03906 DeepMind 로봇은 탁구를 얼마나 잘 치나요? 아마도 인간 아마추어 선수들과 동등할 것입니다: 포핸드와 백핸드 모두: 상대는 다양한 플레이 스타일을 사용하고 로봇도 견딜 수 있습니다: 다양한 스핀으로 서브를 받습니다. 그러나 게임의 강도는 그만큼 강렬하지 않은 것 같습니다. 공원에 있는 노인. 로봇용, 탁구용

최초의 기계식 발톱! Yuanluobao는 2024년 세계 로봇 회의에 등장하여 집에 들어갈 수 있는 최초의 체스 로봇을 출시했습니다. 최초의 기계식 발톱! Yuanluobao는 2024년 세계 로봇 회의에 등장하여 집에 들어갈 수 있는 최초의 체스 로봇을 출시했습니다. Aug 21, 2024 pm 07:33 PM

8월 21일, 2024년 세계로봇대회가 베이징에서 성대하게 개최되었습니다. SenseTime의 홈 로봇 브랜드 "Yuanluobot SenseRobot"은 전체 제품군을 공개했으며, 최근에는 Yuanluobot AI 체스 두는 로봇인 체스 프로페셔널 에디션(이하 "Yuanluobot SenseRobot")을 출시하여 세계 최초의 A 체스 로봇이 되었습니다. 집. Yuanluobo의 세 번째 체스 게임 로봇 제품인 새로운 Guoxiang 로봇은 AI 및 엔지니어링 기계 분야에서 수많은 특별한 기술 업그레이드와 혁신을 거쳤으며 처음으로 3차원 체스 말을 집는 능력을 실현했습니다. 가정용 로봇의 기계 발톱을 통해 체스 게임, 모두 체스 게임, 기보 복습 등과 같은 인간-기계 기능을 수행합니다.

클로드도 게으르게 됐어요! 네티즌 : 휴가를 보내는 법을 배우십시오 클로드도 게으르게 됐어요! 네티즌 : 휴가를 보내는 법을 배우십시오 Sep 02, 2024 pm 01:56 PM

개학이 코앞으로 다가왔습니다. 새 학기를 앞둔 학생들뿐만 아니라 대형 AI 모델도 스스로 관리해야 합니다. 얼마 전 레딧에는 클로드가 게으르다고 불평하는 네티즌들이 붐볐습니다. "레벨이 많이 떨어졌고, 자주 멈췄고, 심지어 출력도 매우 짧아졌습니다. 출시 첫 주에는 4페이지 전체 문서를 한 번에 번역할 수 있었지만 지금은 반 페이지도 출력하지 못합니다. !" https://www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/ "클로드에게 완전히 실망했습니다"라는 제목의 게시물에

세계로봇컨퍼런스에서 '미래 노인돌봄의 희망'을 담은 국산 로봇이 포위됐다. 세계로봇컨퍼런스에서 '미래 노인돌봄의 희망'을 담은 국산 로봇이 포위됐다. Aug 22, 2024 pm 10:35 PM

베이징에서 열린 세계로봇컨퍼런스에서는 휴머노이드 로봇의 전시가 현장의 절대 화두가 됐다. 스타더스트 인텔리전트 부스에서는 AI 로봇 어시스턴트 S1이 덜시머, 무술, 서예 3대 퍼포먼스를 선보였다. 문학과 무술을 모두 갖춘 하나의 전시 공간은 수많은 전문 관객과 미디어를 끌어 모았습니다. 탄력 있는 현의 우아한 연주를 통해 S1은 정밀한 작동과 속도, 힘, 정밀성을 갖춘 절대적인 제어력을 보여줍니다. CCTV 뉴스는 '서예'의 모방 학습 및 지능형 제어에 대한 특별 보도를 진행했습니다. 회사 설립자 Lai Jie는 부드러운 움직임 뒤에 하드웨어 측면이 최고의 힘 제어와 가장 인간과 유사한 신체 지표(속도, 하중)를 추구한다고 설명했습니다. 등)이지만 AI측에서는 사람의 실제 움직임 데이터를 수집해 로봇이 강한 상황에 직면했을 때 더욱 강해지고 빠르게 진화하는 방법을 학습할 수 있다. 그리고 민첩하다

ACL 2024 시상식 발표: HuaTech의 Oracle 해독에 관한 최고의 논문 중 하나, GloVe Time Test Award ACL 2024 시상식 발표: HuaTech의 Oracle 해독에 관한 최고의 논문 중 하나, GloVe Time Test Award Aug 15, 2024 pm 04:37 PM

참가자들은 이번 ACL 컨퍼런스에서 많은 것을 얻었습니다. ACL2024는 6일간 태국 방콕에서 개최됩니다. ACL은 전산언어학 및 자연어 처리 분야 최고의 국제학술대회로 국제전산언어학회(International Association for Computational Linguistics)가 주최하고 매년 개최된다. ACL은 NLP 분야에서 학술 영향력 1위를 항상 차지하고 있으며, CCF-A 추천 컨퍼런스이기도 합니다. 올해로 62회째를 맞이하는 ACL 컨퍼런스에는 NLP 분야의 최신 저서가 400편 이상 접수됐다. 어제 오후 컨퍼런스에서는 최우수 논문과 기타 상을 발표했습니다. 이번에 최우수논문상 7개(미출판 2개), 우수주제상 1개, 우수논문상 35개가 있다. 이 컨퍼런스에서는 또한 3개의 리소스 논문상(ResourceAward)과 사회적 영향상(Social Impact Award)을 수상했습니다.

Li Feifei 팀은 로봇에 공간 지능을 제공하고 GPT-4o를 통합하기 위해 ReKep을 제안했습니다. Li Feifei 팀은 로봇에 공간 지능을 제공하고 GPT-4o를 통합하기 위해 ReKep을 제안했습니다. Sep 03, 2024 pm 05:18 PM

비전과 로봇 학습의 긴밀한 통합. 최근 화제를 모으고 있는 1X 휴머노이드 로봇 네오(NEO)와 두 개의 로봇 손이 원활하게 협력해 옷 개기, 차 따르기, 신발 싸기 등을 하는 모습을 보면 마치 로봇 시대로 접어들고 있다는 느낌을 받을 수 있다. 실제로 이러한 부드러운 움직임은 첨단 로봇 기술 + 정교한 프레임 디자인 + 다중 모드 대형 모델의 산물입니다. 우리는 유용한 로봇이 종종 환경과 복잡하고 절묘한 상호작용을 요구한다는 것을 알고 있으며, 환경은 공간적, 시간적 영역에서 제약으로 표현될 수 있습니다. 예를 들어, 로봇이 차를 따르도록 하려면 먼저 로봇이 찻주전자 손잡이를 잡고 차를 흘리지 않고 똑바로 세운 다음, 주전자 입구와 컵 입구가 일치할 때까지 부드럽게 움직여야 합니다. 을 누른 다음 주전자를 특정 각도로 기울입니다. 이것

홍멍 스마트 트래블 S9과 풀시나리오 신제품 출시 컨퍼런스, 다수의 블록버스터 신제품이 함께 출시됐다 홍멍 스마트 트래블 S9과 풀시나리오 신제품 출시 컨퍼런스, 다수의 블록버스터 신제품이 함께 출시됐다 Aug 08, 2024 am 07:02 AM

오늘 오후 Hongmeng Zhixing은 공식적으로 새로운 브랜드와 신차를 환영했습니다. 8월 6일, Huawei는 Hongmeng Smart Xingxing S9 및 Huawei 전체 시나리오 신제품 출시 컨퍼런스를 개최하여 파노라마식 스마트 플래그십 세단 Xiangjie S9, 새로운 M7Pro 및 Huawei novaFlip, MatePad Pro 12.2인치, 새로운 MatePad Air, Huawei Bisheng을 선보였습니다. 레이저 프린터 X1 시리즈, FreeBuds6i, WATCHFIT3 및 스마트 스크린 S5Pro를 포함한 다양한 새로운 올-시나리오 스마트 제품, 스마트 여행, 스마트 오피스, 스마트 웨어에 이르기까지 화웨이는 풀 시나리오 스마트 생태계를 지속적으로 구축하여 소비자에게 스마트한 경험을 제공합니다. 만물인터넷. Hongmeng Zhixing: 스마트 자동차 산업의 업그레이드를 촉진하기 위한 심층적인 권한 부여 화웨이는 중국 자동차 산업 파트너와 손을 잡고

분산 인공지능 컨퍼런스 DAI 2024 Call for Papers: Agent Day, 강화학습의 아버지 Richard Sutton이 참석합니다! Yan Shuicheng, Sergey Levine 및 DeepMind 과학자들이 기조 연설을 할 예정입니다. 분산 인공지능 컨퍼런스 DAI 2024 Call for Papers: Agent Day, 강화학습의 아버지 Richard Sutton이 참석합니다! Yan Shuicheng, Sergey Levine 및 DeepMind 과학자들이 기조 연설을 할 예정입니다. Aug 22, 2024 pm 08:02 PM

컨퍼런스 소개 과학기술의 급속한 발전과 함께 인공지능은 사회 발전을 촉진하는 중요한 힘이 되었습니다. 이 시대에 우리는 분산인공지능(DAI)의 혁신과 적용을 목격하고 참여할 수 있어 행운입니다. 분산 인공지능(Distributed Artificial Intelligence)은 인공지능 분야의 중요한 한 분야로, 최근 몇 년간 점점 더 많은 주목을 받고 있습니다. 대규모 언어 모델(LLM) 기반 에이전트가 갑자기 등장했습니다. 대규모 모델의 강력한 언어 이해와 생성 기능을 결합하여 자연어 상호 작용, 지식 추론, 작업 계획 등에 큰 잠재력을 보여주었습니다. AIAgent는 빅 언어 모델을 이어받아 현재 AI계에서 화제가 되고 있습니다. 오

See all articles