


'Midjourney dalam bidang video'! Kerja beta dalaman generasi baru AI Gen-2 bocor, netizen berkata ia terlalu realistik
Gen-2, alat penjanaan video AI yang mendakwa boleh merakam filem blockbuster dalam satu ayat, telah mula mendedahkan warna sebenar.
Seorang blogger Twitter telah mendahului kelayakan untuk beta tertutup.
Ini adalah hasil yang dijananya menggunakan perkataan gesaan "seorang lelaki berbentuk baik atau simetri sedang ditemubual di bar":
Saya melihat seorang lelaki berbaju gelap memandang tepat ke arahnya Bercakap kepada orang lain, mata dan ekspresinya menunjukkan kesungguhan dan kejujuran, dan orang yang bertentangan dengannya mengangguk bersetuju dari semasa ke semasa.
Keseluruhan video sangat koheren dan kualiti gambarnya sangat jelas Pada pandangan pertama, rasanya seperti wawancara sebenar!
Versi lain penjanaan kata gesaan yang sama juga tidak buruk:
Kali ini kamera lebih dekat, latar belakang lebih realistik dan watak masih ekspresif.
Selepas membaca set karya ini, beberapa netizen berkata:
Sungguh luar biasa, hanya bergantung pada gesaan teks boleh menghasilkan keputusan sedemikian!
Sesetengah orang terus terang berkata:
Ini ialah ketibaan Midjourney dalam medan video.
Blogger sebenarnya telah menguji Gen-2
Blogger ini bernama Nick St. Pierre, yang pakar dalam berkongsi karyanya yang dibuat dengan AI di Twitter.
Selain gaya realistik yang dilihat pada mulanya, beliau turut mengeluarkan satu set karya fiksyen sains Gen-2.
Contohnya, "Angkasawan Mengembara Melalui Angkasa":
"Seorang askar bersenjata berlari di koridor kapal angkasa, bayang gelap memusnahkan dinding di belakang him" :
"Sekeluarga robot pemakan mikrocip di zoo manusia" :
"Sebuah tentera robot humanoid menjajah dataran beku" :
(Ia mempunyai momentum tentera White Walker yang menyerang Tembok Besar dalam Game of Thrones...)
“Lelaki terakhir di bumi memerhati kapal angkasa penceroboh mendarat di atas Tokyo ”:
…
Semua perkara di atas boleh dilakukan dengan hanya satu perkataan, tanpa perlu merujuk kepada. gambar dan video lain.
Walaupun kesan set sci-fi ini sedikit lebih rendah daripada kesan "Man in a Bar Being Interviewed", perkara ajaibnya ialah ia boleh menandingi rasa "huru-hara" zaman awal zaman itu. Model penjanaan imej AI hampir sama - nampaknya saya dapat melihat bayang AI seperti resapan stabil pada masa itu.
Seperti kata Nick St. Pierre:
Gen-2 masih di peringkat awal, dan ia pasti akan menjadi lebih baik pada masa hadapan.
Kami juga menemui beberapa keputusan di Internet yang diuji oleh orang lain yang telah layak untuk ujian dalaman:
Boleh dikatakan kecuali karya fiksyen sains yang lebih sukar, ia boleh mengendalikan segala-galanya Semua lelaki yang cukup baik.
Penjanaan video AI juga berkembang pesat
Gen-2, alat AI yang mengkhusus dalam penjanaan video, telah dikeluarkan pada 20 Mac (kertas 11 Mac).
Sebagai pendatang baru dalam bidang AIGC, kelajuan dan kualiti lelarannya juga agak pantas:
Versi Gen-1 baru sahaja dilahirkan pada bulan Februari, dan pada masa itu ia hanya boleh digunakan untuk Sudah mempunyai video untuk mengedit;
Kini Gen-2 boleh terus menjana video menggunakan teks dan imej sebagai kata-kata gesaan.
Secara rasmi memanggilnya "langkah seterusnya dalam AI generatif", dan slogan itu juga sangat mendominasi:
katakan, lihatlah. (Selagi anda boleh memberitahunya, saya boleh membiarkan anda melihatnya)
Kemas kini Gen-2 membawa lapan fungsi utama sekali gus:
Video Vincent, teks + rujukan imej Video mentah, menukar imej statik kepada video, pemindahan gaya video, papan cerita, topeng (seperti menukar anjing putih berjalan menjadi Dalmatian), rendering dan pemperibadian (seperti mengubah budak lelaki yang menggelengkan kepalanya menjadi kura-kura dalam beberapa saat) .
Penampilannya, seperti lukisan AI, membolehkan orang ramai melihat perubahan besar yang tersembunyi dalam bidang filem, televisyen, permainan dan pemasaran.
Syarikat pembangunan di belakangnya juga patut disebut, ia adalah Runway.
Landasan telah ditubuhkan pada 2018. Ia telah menyediakan sokongan teknikal untuk kesan khas "The Instant Universe" dan turut mengambil bahagian dalam pembangunan Stable Diffusion (stok yang menjanjikan).
Petua: Gen-1 sudah boleh dimainkan (selepas 125 peluang habis, anda hanya boleh membayar setiap bulan), Gen-2 masih belum dikeluarkan secara rasmi kepada awam .
Selain siri Gen, Microsoft Asia Research Institute juga baru-baru ini mengeluarkan AI yang boleh menjana video ultra-panjang berdasarkan teks: NUWA-XL.
Dengan hanya 16 ayat mudah, ia boleh mendapat animasi selama 11 minit:
Maju ke hadapan sedikit Nak, di atas pada hari yang sama Gen-2 dikeluarkan, Alibaba Damo Academy juga membuka sumber AI teks-ke-video dengan 1.7 bilion parameter:
Kesannya ialah Mak Cik Jiang:
...
Adalah dijangka bukan sahaja penjanaan imej, malah medan video akan menjadi meriah.
Ahem, adakah ia akan menjadi gelombang karnival AI massa yang seterusnya?
Pautan rujukan:
[1]https://www.php.cn/link/4d7e0d72898ae7ea3593eb5ebf20c744
[2]https://www.php.cn/link/e00944d55e6432ccf20f9fda2492b6fd
[3]https://www.php.cn/link/ce653013fadbb2f275790dbb2f275790d [4]
https://www.php.cn/link/6e3adb1ae0e02c934766182313b6775d[5]
https://www .php .cn/link/b9b72b29352f3764ea4dec130772bd9d[6]
https://www.php.cn/link/79d37fb2893b428f7ea4ed3🎜>
Atas ialah kandungan terperinci 'Midjourney dalam bidang video'! Kerja beta dalaman generasi baru AI Gen-2 bocor, netizen berkata ia terlalu realistik. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Bayangkan model kecerdasan buatan yang bukan sahaja mempunyai keupayaan untuk mengatasi pengkomputeran tradisional, tetapi juga mencapai prestasi yang lebih cekap pada kos yang lebih rendah. Ini bukan fiksyen sains, DeepSeek-V2[1], model MoE sumber terbuka paling berkuasa di dunia ada di sini. DeepSeek-V2 ialah gabungan model bahasa pakar (MoE) yang berkuasa dengan ciri-ciri latihan ekonomi dan inferens yang cekap. Ia terdiri daripada 236B parameter, 21B daripadanya digunakan untuk mengaktifkan setiap penanda. Berbanding dengan DeepSeek67B, DeepSeek-V2 mempunyai prestasi yang lebih kukuh, sambil menjimatkan 42.5% kos latihan, mengurangkan cache KV sebanyak 93.3% dan meningkatkan daya pemprosesan penjanaan maksimum kepada 5.76 kali. DeepSeek ialah sebuah syarikat yang meneroka kecerdasan buatan am

AI memang mengubah matematik. Baru-baru ini, Tao Zhexuan, yang telah mengambil perhatian terhadap isu ini, telah memajukan keluaran terbaru "Buletin Persatuan Matematik Amerika" (Buletin Persatuan Matematik Amerika). Memfokuskan pada topik "Adakah mesin akan mengubah matematik?", ramai ahli matematik menyatakan pendapat mereka Seluruh proses itu penuh dengan percikan api, tegar dan menarik. Penulis mempunyai barisan yang kuat, termasuk pemenang Fields Medal Akshay Venkatesh, ahli matematik China Zheng Lejun, saintis komputer NYU Ernest Davis dan ramai lagi sarjana terkenal dalam industri. Dunia AI telah berubah secara mendadak Anda tahu, banyak artikel ini telah dihantar setahun yang lalu.

Awal bulan ini, penyelidik dari MIT dan institusi lain mencadangkan alternatif yang sangat menjanjikan kepada MLP - KAN. KAN mengatasi MLP dari segi ketepatan dan kebolehtafsiran. Dan ia boleh mengatasi prestasi MLP berjalan dengan bilangan parameter yang lebih besar dengan bilangan parameter yang sangat kecil. Sebagai contoh, penulis menyatakan bahawa mereka menggunakan KAN untuk menghasilkan semula keputusan DeepMind dengan rangkaian yang lebih kecil dan tahap automasi yang lebih tinggi. Khususnya, MLP DeepMind mempunyai kira-kira 300,000 parameter, manakala KAN hanya mempunyai kira-kira 200 parameter. KAN mempunyai asas matematik yang kukuh seperti MLP berdasarkan teorem penghampiran universal, manakala KAN berdasarkan teorem perwakilan Kolmogorov-Arnold. Seperti yang ditunjukkan dalam rajah di bawah, KAN telah

Boston Dynamics Atlas secara rasmi memasuki era robot elektrik! Semalam, Atlas hidraulik hanya "menangis" menarik diri daripada peringkat sejarah Hari ini, Boston Dynamics mengumumkan bahawa Atlas elektrik sedang berfungsi. Nampaknya dalam bidang robot humanoid komersial, Boston Dynamics berazam untuk bersaing dengan Tesla. Selepas video baharu itu dikeluarkan, ia telah pun ditonton oleh lebih sejuta orang dalam masa sepuluh jam sahaja. Orang lama pergi dan peranan baru muncul. Ini adalah keperluan sejarah. Tidak dinafikan bahawa tahun ini adalah tahun letupan robot humanoid. Netizen mengulas: Kemajuan robot telah menjadikan majlis pembukaan tahun ini kelihatan seperti manusia, dan tahap kebebasan adalah jauh lebih besar daripada manusia Tetapi adakah ini benar-benar bukan filem seram? Pada permulaan video, Atlas berbaring dengan tenang di atas tanah, seolah-olah terlentang. Apa yang berikut adalah rahang-jatuh

Pengesanan objek ialah masalah yang agak matang dalam sistem pemanduan autonomi, antaranya pengesanan pejalan kaki adalah salah satu algoritma terawal untuk digunakan. Penyelidikan yang sangat komprehensif telah dijalankan dalam kebanyakan kertas kerja. Walau bagaimanapun, persepsi jarak menggunakan kamera fisheye untuk pandangan sekeliling agak kurang dikaji. Disebabkan herotan jejari yang besar, perwakilan kotak sempadan standard sukar dilaksanakan dalam kamera fisheye. Untuk mengurangkan perihalan di atas, kami meneroka kotak sempadan lanjutan, elips dan reka bentuk poligon am ke dalam perwakilan kutub/sudut dan mentakrifkan metrik mIOU pembahagian contoh untuk menganalisis perwakilan ini. Model fisheyeDetNet yang dicadangkan dengan bentuk poligon mengatasi model lain dan pada masa yang sama mencapai 49.5% mAP pada set data kamera fisheye Valeo untuk pemanduan autonomi

Video terbaru robot Tesla Optimus dikeluarkan, dan ia sudah boleh berfungsi di kilang. Pada kelajuan biasa, ia mengisih bateri (bateri 4680 Tesla) seperti ini: Pegawai itu juga mengeluarkan rupanya pada kelajuan 20x - pada "stesen kerja" kecil, memilih dan memilih dan memilih: Kali ini ia dikeluarkan Salah satu sorotan video itu ialah Optimus menyelesaikan kerja ini di kilang, sepenuhnya secara autonomi, tanpa campur tangan manusia sepanjang proses. Dan dari perspektif Optimus, ia juga boleh mengambil dan meletakkan bateri yang bengkok, memfokuskan pada pembetulan ralat automatik: Berkenaan tangan Optimus, saintis NVIDIA Jim Fan memberikan penilaian yang tinggi: Tangan Optimus adalah robot lima jari di dunia paling cerdik. Tangannya bukan sahaja boleh disentuh

FP8 dan ketepatan pengiraan titik terapung yang lebih rendah bukan lagi "paten" H100! Lao Huang mahu semua orang menggunakan INT8/INT4, dan pasukan Microsoft DeepSpeed memaksa diri mereka menjalankan FP6 pada A100 tanpa sokongan rasmi daripada Nvidia. Keputusan ujian menunjukkan bahawa kaedah baharu TC-FPx FP6 kuantisasi pada A100 adalah hampir atau kadangkala lebih pantas daripada INT4, dan mempunyai ketepatan yang lebih tinggi daripada yang terakhir. Selain itu, terdapat juga sokongan model besar hujung ke hujung, yang telah bersumberkan terbuka dan disepadukan ke dalam rangka kerja inferens pembelajaran mendalam seperti DeepSpeed. Keputusan ini juga mempunyai kesan serta-merta pada mempercepatkan model besar - di bawah rangka kerja ini, menggunakan satu kad untuk menjalankan Llama, daya pemprosesan adalah 2.65 kali lebih tinggi daripada dua kad. satu

Pautan projek ditulis di hadapan: https://nianticlabs.github.io/mickey/ Memandangkan dua gambar, pose kamera di antara mereka boleh dianggarkan dengan mewujudkan kesesuaian antara gambar. Biasanya, surat-menyurat ini adalah 2D hingga 2D, dan anggaran pose kami adalah skala-tak tentu. Sesetengah aplikasi, seperti realiti tambahan segera pada bila-bila masa, di mana-mana sahaja, memerlukan anggaran pose metrik skala, jadi mereka bergantung pada penganggar kedalaman luaran untuk memulihkan skala. Makalah ini mencadangkan MicKey, proses pemadanan titik utama yang mampu meramalkan korespondensi metrik dalam ruang kamera 3D. Dengan mempelajari padanan koordinat 3D merentas imej, kami dapat membuat kesimpulan relatif metrik
