Rumah Peranti teknologi AI Gergasi pembelajaran mendalam DeepMind telah membuat kemajuan terobosan pada dataset ImageNet, membawa pencapaian baharu kepada penyelidikan robotik

Gergasi pembelajaran mendalam DeepMind telah membuat kemajuan terobosan pada dataset ImageNet, membawa pencapaian baharu kepada penyelidikan robotik

Oct 05, 2023 pm 04:21 PM
industri rt-x open x-embodiment

Mengapa robotik ketinggalan jauh di belakang pemprosesan bahasa semula jadi (NLP), penglihatan dan bidang kecerdasan buatan yang lain? Antara kesukaran lain, kekurangan data adalah sebab utama. Untuk menyelesaikan masalah ini, Google DeepMind dan institusi lain melancarkan set data X-Embodiment terbuka dan berjaya melatih model RT-X yang lebih berkuasa

Gergasi pembelajaran mendalam DeepMind telah membuat kemajuan terobosan pada dataset ImageNet, membawa pencapaian baharu kepada penyelidikan robotik
Pencapaian berterusan dalam model besar, penyelidikan Dalam 2023 pada robot pintar yang terkandung yang menggunakan model besar sebagai otak untuk membantu dalam operasi juga sedang berkembang pesat.

Lebih 2 bulan yang lalu, Google DeepMind melancarkan model Vision-Language-Action (VLA) pertama untuk mengawal robot - RT-2. Model ini membolehkan robot bukan sahaja mentafsir arahan manusia yang kompleks, tetapi juga memahami objek di hadapannya (walaupun objek itu tidak pernah dilihat sebelum ini) dan mengambil tindakan mengikut arahan. Sebagai contoh, anda meminta robot untuk mengambil "haiwan pupus" di atas meja. Ia akan merebut anak patung dinosaur di hadapannya.

Gergasi pembelajaran mendalam DeepMind telah membuat kemajuan terobosan pada dataset ImageNet, membawa pencapaian baharu kepada penyelidikan robotik

Pada masa itu, seorang eksekutif Google berkata RT-2 adalah lonjakan besar ke hadapan dalam cara robot dibina dan diprogramkan. "Disebabkan oleh perubahan ini, kami terpaksa memikirkan semula keseluruhan rancangan penyelidikan kami."

Bagaimana ini dicapai?

Kita tahu bahawa robot biasanya sangat khusus dalam melakukan satu perkara, tetapi mempunyai keupayaan am yang lemah. Biasanya, anda perlu melatih model untuk setiap tugas, robot dan persekitaran. Menukar pembolehubah selalunya memerlukan bermula dari awal. Tetapi bagaimana jika kita boleh menggabungkan pengetahuan daripada pelbagai disiplin robotik untuk mencipta cara untuk melatih robot sejagat?

Inilah yang DeepMind lakukan sejak sekian lama. Mereka mengumpulkan data daripada 22 jenis robot berbeza untuk mencipta dataset Open X-Embodiment, dan kemudian melatih RT-X yang lebih berkebolehan ( RT-1-X dan RT-2-X masing-masing).

Mereka menguji model RT-1-X dalam lima makmal penyelidikan berbeza dan keputusan menunjukkan bahawa kaedah baharu itu sama-sama berjaya merentas lima robot berbeza yang biasa digunakan berbanding kaedah yang dibangunkan secara bebas untuk setiap robot meningkat sebanyak 50%. . Mereka juga menunjukkan bahawa RT-2-X yang dilatih pada set data di atas meningkatkan prestasi kemahiran robot dunia sebenar dengan faktor 2, dan dengan mempelajari data baharu, RT-2-X menguasai banyak kemahiran baharu. Kerja ini menunjukkan bahawa model tunggal yang dilatih pada data daripada berbilang jenis robot menunjukkan prestasi yang lebih baik pada berbilang robot berbanding model yang dilatih pada data daripada jenis robot tunggal.

Perlu dinyatakan bahawa penyelidikan ini tidak disiapkan oleh DeepMind secara bebas, tetapi adalah hasil kerjasama mereka dengan 33 makmal akademik. Mereka komited untuk membangunkan teknologi ini secara terbuka dan bertanggungjawab.
Gergasi pembelajaran mendalam DeepMind telah membuat kemajuan terobosan pada dataset ImageNet, membawa pencapaian baharu kepada penyelidikan robotik
Pada masa ini, dataset Open X-Embodiment dan pusat pemeriksaan model RT-1-X tersedia untuk komuniti penyelidikan yang luas.
Gergasi pembelajaran mendalam DeepMind telah membuat kemajuan terobosan pada dataset ImageNet, membawa pencapaian baharu kepada penyelidikan robotik
Jim Fan, saintis kecerdasan buatan kanan di Nvidia, berkata hari ini boleh menjadi detik ImageNet untuk robot.

Gergasi pembelajaran mendalam DeepMind telah membuat kemajuan terobosan pada dataset ImageNet, membawa pencapaian baharu kepada penyelidikan robotik

Penyelidik Google Karol Hausman turut meluahkan keluhan yang sama: Detik robot ImageNet akhirnya tiba.

Gergasi pembelajaran mendalam DeepMind telah membuat kemajuan terobosan pada dataset ImageNet, membawa pencapaian baharu kepada penyelidikan robotik

Open X-Embodiment Dataset, ImageNet Moment for Robotics

Set data dan model yang dilatih padanya telah memainkan peranan penting dalam memajukan kemajuan AI. Sama seperti penyelidikan penglihatan komputer termaju ImageNet, Open X-Embodiment juga robotik termaju.

Membina set data yang pelbagai sentiasa menjadi kunci untuk melatih model universal ini boleh mengawal pelbagai jenis robot, mengikut arahan yang berbeza, melakukan penaakulan asas pada tugas yang kompleks dan melaksanakan tugasan umum dengan cekap. Walau bagaimanapun, pengumpulan set data sedemikian akan menjadi terlalu intensif sumber untuk mana-mana makmal tunggal.

Untuk tujuan ini, DeepMind bekerjasama dengan makmal penyelidikan akademik di 33 institusi untuk membina dataset Open X-Embodiment. Mereka mengumpul data daripada 22 contoh robot yang merangkumi lebih daripada 1 juta klip yang menunjukkan prestasi robot dalam lebih daripada 500 kemahiran dan 150,000 tugas. Set data ini ialah set data robotik paling komprehensif seumpamanya.
Gergasi pembelajaran mendalam DeepMind telah membuat kemajuan terobosan pada dataset ImageNet, membawa pencapaian baharu kepada penyelidikan robotik
                                                                                                                                                                                                                                                                                                                                       Sampel daripada set data Open X-Embodiment, termasuk lebih daripada 500 kemahiran dan 150,000 tugasan. .
RT-X adalah berdasarkan kepada dua model pengubah robotik (RT) yang dibina. Gergasi pembelajaran mendalam DeepMind telah membuat kemajuan terobosan pada dataset ImageNet, membawa pencapaian baharu kepada penyelidikan robotik
Secara khusus, mereka melatih RT-1-X menggunakan RT-1, iaitu rangkaian parameter 35M yang dibina pada seni bina Transformer dan direka untuk kawalan robot, seperti yang ditunjukkan dalam Rajah 3.

Selain itu, mereka melatih RT-2-X pada RT-2, sebuah keluarga model tindakan bahasa visual berskala besar (VLA), pada data penglihatan dan bahasa berskala Internet serta data kawalan robot yang dilatih.
Untuk menilai RT-1-X, DeepMind membandingkannya dengan model yang dibangunkan untuk tugas tertentu, seperti membuka pintu. Keputusan menunjukkan bahawa RT-1-X yang dilatih menggunakan set data Open X-Embodiment mengatasi model asal sebanyak 50% secara purata. Kadar kejayaan purata RT-1-X adalah 50% lebih tinggi daripada kaedah asal.

关于 Paparan kesan RT-1-X daripada agensi kerjasama yang berbeza

RT-2-X: Kemahiran baharu membuka kunci tanpa halangan

untuk belajar ilmu RT-X keupayaan, DeepMind menjalankan eksperimen lain. Eksperimen ini melibatkan objek dan kemahiran yang tidak terdapat dalam dataset RT-2, tetapi terdapat dalam dataset robot lain. Keputusan menunjukkan bahawa RT-2-X adalah tiga kali lebih berjaya dalam menguasai kemahiran baru daripada model terbaik sebelumnya, RT-2. Ini juga menggambarkan bahawa latihan bersama dengan data daripada platform lain boleh memberi RT-2-X kemahiran tambahan yang tidak terdapat dalam set data asal, membolehkannya melaksanakan tugas baru. Gambar di atas menunjukkan pemahaman RT-2-X tentang hubungan ruang antara objek.
Gergasi pembelajaran mendalam DeepMind telah membuat kemajuan terobosan pada dataset ImageNet, membawa pencapaian baharu kepada penyelidikan robotik
Serangkaian keputusan menunjukkan bahawa RT-2-X mencapai kemahiran yang sebelum ini tidak boleh dicapai dengan RT-2, termasuk pemahaman yang lebih baik tentang ruang. Sebagai contoh, jika kita meminta robot untuk "menggerakkan epal berhampiran kain", atau meminta robot untuk "menggerakkan epal ke kain", untuk mencapai keperluan matlamat, robot akan mengambil trajektori yang sama sekali berbeza. Cuma tukar preposisi daripada "berhampiran" kepada "hidup" untuk melaraskan tindakan yang diambil oleh robot.

RT-2-X menunjukkan bahawa menggabungkan data daripada robot lain ke dalam latihan RT-2-X boleh meningkatkan julat tugas robot, tetapi hanya jika seni bina berkapasiti tinggi digunakan. Gergasi pembelajaran mendalam DeepMind telah membuat kemajuan terobosan pada dataset ImageNet, membawa pencapaian baharu kepada penyelidikan robotik


RT-2-X (55b): Salah satu model terbesar hingga kini melaksanakan tugas yang tidak diketahui di makmal akademik

Gergasi pembelajaran mendalam DeepMind telah membuat kemajuan terobosan pada dataset ImageNet, membawa pencapaian baharu kepada penyelidikan robotik

Inspirasi Penyelidikan: Robot perlu belajar antara satu sama lain, penyelidik Perkara yang sama

Penyelidikan robotik sedang dalam peringkat awal yang menarik. Penyelidikan baharu daripada DeepMind ini menunjukkan bahawa dengan menskalakan pembelajaran dengan data yang lebih pelbagai dan model yang lebih baik, mungkin untuk membangunkan robot bantuan yang lebih berguna. Bekerjasama dan berkongsi sumber dengan makmal di seluruh dunia adalah penting untuk memajukan penyelidikan robotik secara terbuka dan bertanggungjawab. DeepMind berharap dapat mengurangkan halangan dan mempercepatkan penyelidikan dengan membuka sumber data dan menyediakan model yang selamat tetapi terhad. Masa depan robotik bergantung pada robot belajar antara satu sama lain dan, yang paling penting, membolehkan penyelidik belajar antara satu sama lain.
Kerja ini membuktikan bahawa model itu boleh digeneralisasikan dalam persekitaran yang berbeza, dan prestasinya meningkat dengan ketara sama ada pada robot daripada Google DeepMind atau robot di universiti yang berbeza di seluruh dunia. Penyelidikan masa depan boleh meneroka cara menggabungkan kemajuan ini dengan ciri peningkatan diri RoboCat, membolehkan model itu terus bertambah baik berdasarkan pengalamannya sendiri. Satu lagi hala tuju masa depan adalah untuk meneroka lebih lanjut cara mencampurkan set data yang berbeza mempengaruhi generalisasi ejen terjelma silang, dan cara generalisasi ini dicapai.
Jika anda ingin mengetahui lebih lanjut tentang RT-X, anda boleh rujuk kertas kerja terbitan DeepMind ini:

Pautan kertas: https://robotics-transformer-x.github.io / paper.pdf
Gergasi pembelajaran mendalam DeepMind telah membuat kemajuan terobosan pada dataset ImageNet, membawa pencapaian baharu kepada penyelidikan robotikPautan projek: https://robotics-transformer-x.github.io/
  • Pautan rujukan: https://www.deepmind.com/blog/scaling - up-learning-rentas-banyak-pelbagai-jenis-robot

Atas ialah kandungan terperinci Gergasi pembelajaran mendalam DeepMind telah membuat kemajuan terobosan pada dataset ImageNet, membawa pencapaian baharu kepada penyelidikan robotik. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
2 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Repo: Cara menghidupkan semula rakan sepasukan
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Adventure: Cara mendapatkan biji gergasi
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Robot DeepMind bermain pingpong, dan pukulan depan dan pukulan kilasnya tergelincir ke udara, mengalahkan manusia pemula sepenuhnya Robot DeepMind bermain pingpong, dan pukulan depan dan pukulan kilasnya tergelincir ke udara, mengalahkan manusia pemula sepenuhnya Aug 09, 2024 pm 04:01 PM

Tetapi mungkin dia tidak dapat mengalahkan lelaki tua di taman itu? Sukan Olimpik Paris sedang rancak berlangsung, dan pingpong telah menarik perhatian ramai. Pada masa yang sama, robot juga telah membuat penemuan baru dalam bermain pingpong. Sebentar tadi, DeepMind mencadangkan ejen robot pembelajaran pertama yang boleh mencapai tahap pemain amatur manusia dalam pingpong yang kompetitif. Alamat kertas: https://arxiv.org/pdf/2408.03906 Sejauh manakah robot DeepMind bermain pingpong? Mungkin setanding dengan pemain amatur manusia: kedua-dua pukulan depan dan pukulan kilas: pihak lawan menggunakan pelbagai gaya permainan, dan robot juga boleh bertahan: servis menerima dengan putaran yang berbeza: Walau bagaimanapun, keamatan permainan nampaknya tidak begitu sengit seperti lelaki tua di taman itu. Untuk robot, pingpong

Claude pun dah jadi malas! Netizen: Belajar untuk memberi percutian kepada diri sendiri Claude pun dah jadi malas! Netizen: Belajar untuk memberi percutian kepada diri sendiri Sep 02, 2024 pm 01:56 PM

Permulaan sekolah akan bermula, dan bukan hanya pelajar yang akan memulakan semester baharu yang harus menjaga diri mereka sendiri, tetapi juga model AI yang besar. Beberapa ketika dahulu, Reddit dipenuhi oleh netizen yang mengadu Claude semakin malas. "Tahapnya telah banyak menurun, ia sering berhenti seketika, malah output menjadi sangat singkat. Pada minggu pertama keluaran, ia boleh menterjemah dokumen penuh 4 halaman sekaligus, tetapi kini ia tidak dapat mengeluarkan separuh halaman pun. !" https:// www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/ dalam siaran bertajuk "Totally disappointed with Claude", penuh dengan

Cakar mekanikal pertama! Yuanluobao muncul di Persidangan Robot Dunia 2024 dan mengeluarkan robot catur pertama yang boleh memasuki rumah Cakar mekanikal pertama! Yuanluobao muncul di Persidangan Robot Dunia 2024 dan mengeluarkan robot catur pertama yang boleh memasuki rumah Aug 21, 2024 pm 07:33 PM

Pada 21 Ogos, Persidangan Robot Dunia 2024 telah diadakan dengan megah di Beijing. Jenama robot rumah SenseTime "Yuanluobot SenseRobot" telah memperkenalkan seluruh keluarga produknya, dan baru-baru ini mengeluarkan robot permainan catur AI Yuanluobot - Edisi Profesional Catur (selepas ini dirujuk sebagai "Yuanluobot SenseRobot"), menjadi robot catur A pertama di dunia untuk rumah. Sebagai produk robot permainan catur ketiga Yuanluobo, robot Guoxiang baharu telah melalui sejumlah besar peningkatan teknikal khas dan inovasi dalam AI dan jentera kejuruteraan Buat pertama kalinya, ia telah menyedari keupayaan untuk mengambil buah catur tiga dimensi melalui cakar mekanikal pada robot rumah, dan melaksanakan Fungsi mesin manusia seperti bermain catur, semua orang bermain catur, semakan notasi, dsb.

Pada Persidangan Robot Sedunia, robot domestik yang membawa 'harapan penjagaan warga tua masa depan' ini telah dikepung Pada Persidangan Robot Sedunia, robot domestik yang membawa 'harapan penjagaan warga tua masa depan' ini telah dikepung Aug 22, 2024 pm 10:35 PM

Pada Persidangan Robot Dunia yang diadakan di Beijing, paparan robot humanoid telah menjadi tumpuan mutlak di gerai Stardust Intelligent, pembantu robot AI S1 mempersembahkan tiga persembahan utama dulcimer, seni mempertahankan diri dan kaligrafi dalam. satu kawasan pameran, berkebolehan kedua-dua sastera dan seni mempertahankan diri, menarik sejumlah besar khalayak profesional dan media. Permainan elegan pada rentetan elastik membolehkan S1 menunjukkan operasi halus dan kawalan mutlak dengan kelajuan, kekuatan dan ketepatan. CCTV News menjalankan laporan khas mengenai pembelajaran tiruan dan kawalan pintar di sebalik "Kaligrafi Pengasas Syarikat Lai Jie menjelaskan bahawa di sebalik pergerakan sutera, bahagian perkakasan mengejar kawalan daya terbaik dan penunjuk badan yang paling menyerupai manusia (kelajuan, beban). dll.), tetapi di sisi AI, data pergerakan sebenar orang dikumpulkan, membolehkan robot menjadi lebih kuat apabila ia menghadapi situasi yang kuat dan belajar untuk berkembang dengan cepat. Dan tangkas

Pasukan Li Feifei mencadangkan ReKep untuk memberi robot kecerdasan spatial dan mengintegrasikan GPT-4o Pasukan Li Feifei mencadangkan ReKep untuk memberi robot kecerdasan spatial dan mengintegrasikan GPT-4o Sep 03, 2024 pm 05:18 PM

Penyepaduan mendalam penglihatan dan pembelajaran robot. Apabila dua tangan robot bekerja bersama-sama dengan lancar untuk melipat pakaian, menuang teh dan mengemas kasut, ditambah pula dengan 1X robot humanoid NEO yang telah menjadi tajuk berita baru-baru ini, anda mungkin mempunyai perasaan: kita seolah-olah memasuki zaman robot. Malah, pergerakan sutera ini adalah hasil teknologi robotik canggih + reka bentuk bingkai yang indah + model besar berbilang modal. Kami tahu bahawa robot yang berguna sering memerlukan interaksi yang kompleks dan indah dengan alam sekitar, dan persekitaran boleh diwakili sebagai kekangan dalam domain spatial dan temporal. Sebagai contoh, jika anda ingin robot menuang teh, robot terlebih dahulu perlu menggenggam pemegang teko dan memastikannya tegak tanpa menumpahkan teh, kemudian gerakkannya dengan lancar sehingga mulut periuk sejajar dengan mulut cawan. , dan kemudian condongkan teko pada sudut tertentu. ini

Anugerah ACL 2024 Diumumkan: Salah satu Kertas Terbaik mengenai Pentafsiran Oracle oleh HuaTech, Anugerah Ujian Masa GloVe Anugerah ACL 2024 Diumumkan: Salah satu Kertas Terbaik mengenai Pentafsiran Oracle oleh HuaTech, Anugerah Ujian Masa GloVe Aug 15, 2024 pm 04:37 PM

Pada persidangan ACL ini, para penyumbang telah mendapat banyak keuntungan. ACL2024 selama enam hari diadakan di Bangkok, Thailand. ACL ialah persidangan antarabangsa teratas dalam bidang linguistik pengiraan dan pemprosesan bahasa semula jadi Ia dianjurkan oleh Persatuan Antarabangsa untuk Linguistik Pengiraan dan diadakan setiap tahun. ACL sentiasa menduduki tempat pertama dalam pengaruh akademik dalam bidang NLP, dan ia juga merupakan persidangan yang disyorkan CCF-A. Persidangan ACL tahun ini adalah yang ke-62 dan telah menerima lebih daripada 400 karya termaju dalam bidang NLP. Petang semalam, persidangan itu mengumumkan kertas kerja terbaik dan anugerah lain. Kali ini, terdapat 7 Anugerah Kertas Terbaik (dua tidak diterbitkan), 1 Anugerah Kertas Tema Terbaik, dan 35 Anugerah Kertas Cemerlang. Persidangan itu turut menganugerahkan 3 Anugerah Kertas Sumber (ResourceAward) dan Anugerah Impak Sosial (

Hongmeng Smart Travel S9 dan persidangan pelancaran produk baharu senario penuh, beberapa produk baharu blockbuster dikeluarkan bersama-sama Hongmeng Smart Travel S9 dan persidangan pelancaran produk baharu senario penuh, beberapa produk baharu blockbuster dikeluarkan bersama-sama Aug 08, 2024 am 07:02 AM

Petang ini, Hongmeng Zhixing secara rasmi mengalu-alukan jenama baharu dan kereta baharu. Pada 6 Ogos, Huawei mengadakan persidangan pelancaran produk baharu Hongmeng Smart Xingxing S9 dan senario penuh Huawei, membawakan sedan perdana pintar panoramik Xiangjie S9, M7Pro dan Huawei novaFlip baharu, MatePad Pro 12.2 inci, MatePad Air baharu, Huawei Bisheng With banyak produk pintar semua senario baharu termasuk pencetak laser siri X1, FreeBuds6i, WATCHFIT3 dan skrin pintar S5Pro, daripada perjalanan pintar, pejabat pintar kepada pakaian pintar, Huawei terus membina ekosistem pintar senario penuh untuk membawa pengguna pengalaman pintar Internet Segala-galanya. Hongmeng Zhixing: Pemerkasaan mendalam untuk menggalakkan peningkatan industri kereta pintar Huawei berganding bahu dengan rakan industri automotif China untuk menyediakan

Model UI besar pertama di China dikeluarkan! Model besar Motiff mencipta pembantu terbaik untuk pereka bentuk dan mengoptimumkan aliran kerja reka bentuk UI Model UI besar pertama di China dikeluarkan! Model besar Motiff mencipta pembantu terbaik untuk pereka bentuk dan mengoptimumkan aliran kerja reka bentuk UI Aug 19, 2024 pm 04:48 PM

Kecerdasan buatan berkembang lebih cepat daripada yang anda bayangkan. Sejak GPT-4 memperkenalkan teknologi multimodal ke mata umum, model besar multimodal telah memasuki tahap pembangunan pesat, secara beransur-ansur beralih daripada penyelidikan dan pembangunan model tulen kepada penerokaan dan aplikasi dalam bidang menegak, dan disepadukan secara mendalam dengan semua lapisan masyarakat. Dalam bidang interaksi antara muka, gergasi teknologi antarabangsa seperti Google dan Apple telah melabur dalam penyelidikan dan pembangunan model UI berbilang modal yang besar, yang dianggap sebagai satu-satunya jalan ke hadapan untuk revolusi AI telefon mudah alih. Dalam konteks ini, model UI berskala besar pertama di China telah dilahirkan. Pada 17 Ogos, di Persidangan Reka Bentuk Pengalaman Antarabangsa IXDC2024, Motiff, alat reka bentuk dalam era AI, melancarkan model berbilang modal UI yang dibangunkan secara bebas - Model Motiff. Ini ialah alat reka bentuk UI pertama di dunia

See all articles