目錄
GAIA 有什麼創新點?
GAIA 效果怎麼樣?
首頁 科技週邊 人工智慧 一張照片生成視頻,張嘴、點頭、喜怒哀樂,都可以打字控制

一張照片生成視頻,張嘴、點頭、喜怒哀樂,都可以打字控制

Dec 03, 2023 am 11:17 AM
微軟 模型

最近,微軟進行的一項研究揭示了視訊處理軟體PS的靈活程度有多高

在這項研究中,你只要給AI 一張照片,它就能產生照片中人物的視頻,而且人物的表情、動作都是可以透過文字進行控制的。例如,如果你給的指令是「張嘴」,影片中的人物就會真的張開嘴。

一張照片生成視頻,張嘴、點頭、喜怒哀樂,都可以打字控制

如果你給的指示是「傷心」,她就會做出傷心的表情和頭部動作。

一張照片生成視頻,張嘴、點頭、喜怒哀樂,都可以打字控制

當給出指令「驚訝」,虛擬人物的抬頭紋都擠在一起了。

一張照片生成視頻,張嘴、點頭、喜怒哀樂,都可以打字控制

除此之外,您還可以提供一段語音,讓虛擬角色的嘴型和動作與語音同步。或者,您可以提供一段真人影片供虛擬角色模仿

如果你對虛擬人物的動作有更多的自訂編輯需求,例如讓他們點頭、轉頭或歪頭,這項技術也是支援的

一張照片生成視頻,張嘴、點頭、喜怒哀樂,都可以打字控制

這項研究名叫GAIA(Generative AI for Avatar,用於虛擬形象的生成式AI),其demo 已經開始在社群媒體上傳播。不少人對其效果表示讚嘆,並希望用它來「復活」逝者。

一張照片生成視頻,張嘴、點頭、喜怒哀樂,都可以打字控制

但也有人擔心,這些技巧的持續演化會讓網路影片變得更加真假難辨,或是被不法分子用於詐騙。看來,反詐手法要繼續升級了。

一張照片生成視頻,張嘴、點頭、喜怒哀樂,都可以打字控制

GAIA 有什麼創新點?

零樣本會說話的虛擬人物生成技術旨在根據語音合成自然視頻,確保生成的嘴型、表情和頭部姿勢與語音內容一致。過去的研究通常需要針對每個虛擬人物進行特定訓練或調整特定模型,或在推理過程中利用模板影片以實現高品質的結果。最近,研究人員致力於設計和改進零樣本會說話的虛擬人物的生成方法,只需使用一張目標虛擬人物的肖像圖片作為外貌參考即可。不過,這些方法通常採用基於warping的運動表示、3D Morphable Model(3DMM)等領域先驗來降低任務難度。這類啟發式方法雖然有效,但可能會限制多樣性,導致不自然的結果。因此,從資料分佈直接學習是未來研究的重點

本文中,來自微軟的研究者提出了GAIA(Generative AI for Avatar),其能夠從語音和單張肖像圖片合成自然的會說話的虛擬人物視頻,在生成過程中消除了領域先驗。

一張照片生成視頻,張嘴、點頭、喜怒哀樂,都可以打字控制

專案位址:https://microsoft.github.io/GAIA/可以在此連結上找到相關專案的詳細資訊

論文連結: https://arxiv.org/pdf/2311.15230.pdf

蓋亞揭示了兩個關鍵洞見:

  1. 用語音來驅動虛擬人物運動,而虛擬人物的背景和外觀(appearance)在整個影片中保持不變。受此啟發,本文將每一幀的運動和外觀分開,其中外觀在幀之間共享,而運動對每一幀都是唯一的。為了根據語音預測運動,本文將運動序列編碼為運動潛在序列,並使用以輸入語音為條件的擴散模型來預測潛在序列;
  2. 當一個人在說出給定的內容時,表情和頭部姿態存在巨大的多樣性,這需要一個大規模和多樣化的數據集。因此,該研究收集了一個高品質的能說話的虛擬人物資料集,該資料集由 16K 個不同年齡、性別、皮膚類型和說話風格的獨特說話者組成,使生成結果自然且多樣化。

根據上述兩個洞見,本文提出了GAIA 框架,其由變分自編碼器(VAE)(橘色模組)和擴散模型(藍色和綠色模組)組成。

一張照片生成視頻,張嘴、點頭、喜怒哀樂,都可以打字控制

VAE的主要功能是分解運動和外觀。它由兩個編碼器(運動編碼器和外觀編碼器)和一個解碼器組成。在訓練時,運動編碼器的輸入為面部關鍵點(landmarks)的當前幀,而外貌編碼器的輸入為當前視頻剪輯中的隨機採樣幀

根據這兩個編碼器的輸出,隨後最佳化解碼器以重建目前幀。一旦獲得訓練完成的VAE,就會得到所有訓練資料的潛在動作(即運動編碼器的輸出)

然後,這篇文章使用擴散模型訓練,以預測基於語音和影片剪輯中隨機取樣影格的運動潛在序列,從而為生成過程提供外貌資訊

#在推理過程中,給定目標虛擬人物的參考肖像影像,擴散模型將影像和輸入語音序列作為條件,產生符合語音內容的運動潛在序列。然後,產生的運動潛在序列和參考肖像圖像經過 VAE 解碼器合成說話視訊輸出。

該研究在資料方面進行了構建,從不同的來源收集了資料集,包括 High-Definition Talking Face Dataset (HDTF) 和 Casual Conversation datasets v1&v2 (CC v1&v2)。除了這三個資料集之外,研究還收集了一個大規模的內部說話虛擬人物資料集,其中包含 7K 小時的影片和 8K 說話者 ID。資料集的統計概述如表1 所示

一張照片生成視頻,張嘴、點頭、喜怒哀樂,都可以打字控制

為了學習到所需的信息,文章提出了幾種自動過濾策略以確保訓練資料的品質:

  1. 為了讓嘴唇移動可見,頭像的正面方向應朝向相機; 
  2. 為了確保穩定性,影片中的臉部動作要流暢,不能出現快速晃動; 
  3. 為了過濾嘴唇動作和言語不一致的極端情況,應該刪除頭像戴口罩或保持沉默的畫面。

本文在過濾後的資料上訓練 VAE 和擴散模型。從實驗結果來看,本文得到了三個關鍵結論:

  1. GAIA 能夠進行零樣本說話虛擬人物生成,在自然度、多樣性、口型同步質量和視覺品質方面具有優越的性能。根據研究者的主觀評價,GAIA 顯著超越了所有基線方法; 
  2. #訓練模型的大小從150M 到2B 不等,結果表明,GAIA 具有可擴展性,因為較大型的模型會產生更好的結果; 
  3. GAIA 是一個通用且靈活的框架,可實現不同的應用,包括可控的說話虛擬人物生成和文字- 指令虛擬人物生成。

GAIA 效果怎麼樣?

實驗過程中,研究將 GAIA 與三個強大的基準進行比較,包括 FOMM、HeadGAN 和 Face-vid2vid。結果如表 2 所示:GAIA 中的 VAE 比先前的視訊驅動基準實現了持續的改進,這說明 GAIA 成功地分解了外觀和運動表示。

一張照片生成視頻,張嘴、點頭、喜怒哀樂,都可以打字控制

#

語音驅動結果。用語音驅動說話虛擬人物生成是透過從語音預測運動實現的。表 3 和圖 2 提供了 GAIA 與 MakeItTalk、Audio2Head 和 SadTalker 方法的定量和定性比較。

從數據中可以清楚地看出,GAIA 在主觀評估方面遠遠超過了所有基準方法。更具體地說,如圖2 所示,即使參考影像是閉眼或頭部姿態不尋常,基準方法的生成結果通常高度依賴於參考影像;相較之下,GAIA 對各種參考影像都表現出穩健性,並產生具有更高自然度、口型高度同步、視覺品質更好以及運動多樣性的結果

一張照片生成視頻,張嘴、點頭、喜怒哀樂,都可以打字控制

根據表3,最佳的MSI分數顯示GAIA產生的影片具有優異的運動穩定性。 Sync-D得分為8.528,接近真實影片得分(8.548),顯示產生的影片具有出色的唇形同步性。該研究獲得了與基線相當的FID分數,這可能是受到了不同頭部姿態的影響,因為該研究發現未經擴散訓練的模型在表中實現了更好的FID分數,詳見表6

一張照片生成視頻,張嘴、點頭、喜怒哀樂,都可以打字控制

一張照片生成視頻,張嘴、點頭、喜怒哀樂,都可以打字控制

以上是一張照片生成視頻,張嘴、點頭、喜怒哀樂,都可以打字控制的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 May 07, 2024 pm 04:13 PM

想像一下,一個人工智慧模型,不僅擁有超越傳統運算的能力,還能以更低的成本實現更有效率的效能。這不是科幻,DeepSeek-V2[1],全球最強開源MoE模型來了。 DeepSeek-V2是一個強大的專家混合(MoE)語言模型,具有訓練經濟、推理高效的特點。它由236B個參數組成,其中21B個參數用於啟動每個標記。與DeepSeek67B相比,DeepSeek-V2效能更強,同時節省了42.5%的訓練成本,減少了93.3%的KV緩存,最大生成吞吐量提高到5.76倍。 DeepSeek是一家探索通用人工智

替代MLP的KAN,被開源專案擴展到卷積了 替代MLP的KAN,被開源專案擴展到卷積了 Jun 01, 2024 pm 10:03 PM

本月初,來自MIT等機構的研究者提出了一種非常有潛力的MLP替代方法—KAN。 KAN在準確性和可解釋性方面表現優於MLP。而且它能以非常少的參數量勝過以更大參數量運行的MLP。例如,作者表示,他們用KAN以更小的網路和更高的自動化程度重現了DeepMind的結果。具體來說,DeepMind的MLP有大約300,000個參數,而KAN只有約200個參數。 KAN與MLP一樣具有強大的數學基礎,MLP基於通用逼近定理,而KAN基於Kolmogorov-Arnold表示定理。如下圖所示,KAN在邊上具

特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! 特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! May 06, 2024 pm 04:13 PM

特斯拉機器人Optimus最新影片出爐,已經可以在工廠裡打工了。正常速度下,它分揀電池(特斯拉的4680電池)是這樣的:官方還放出了20倍速下的樣子——在小小的「工位」上,揀啊揀啊揀:這次放出的影片亮點之一在於Optimus在廠子裡完成這項工作,是完全自主的,全程沒有人為的干預。而且在Optimus的視角之下,它還可以把放歪了的電池重新撿起來放置,主打一個自動糾錯:對於Optimus的手,英偉達科學家JimFan給出了高度的評價:Optimus的手是全球五指機器人裡最靈巧的之一。它的手不僅有觸覺

微軟發布 Win11 八月累積更新:提高安全性、優化鎖定螢幕等 微軟發布 Win11 八月累積更新:提高安全性、優化鎖定螢幕等 Aug 14, 2024 am 10:39 AM

本站8月14日訊息,在今天的8月補丁星期二活動日中,微軟發布了適用於Windows11系統的累積更新,包括針對22H2和23H2的KB5041585更新,面向21H2的KB5041592更新。上述設備安裝8月累積更新之後,本站附上版本號變更如下:21H2設備安裝後版本號升至Build22000.314722H2設備安裝後版本號升至Build22621.403723H2設備安裝後版本號升至Build22631.4037面向Windows1121H2的KB5041585更新主要內容如下:改進:提高了

全面超越DPO:陳丹琦團隊提出簡單偏好優化SimPO,也煉出最強8B開源模型 全面超越DPO:陳丹琦團隊提出簡單偏好優化SimPO,也煉出最強8B開源模型 Jun 01, 2024 pm 04:41 PM

為了將大型語言模型(LLM)與人類的價值和意圖對齊,學習人類回饋至關重要,這能確保它們是有用的、誠實的和無害的。在對齊LLM方面,一種有效的方法是根據人類回饋的強化學習(RLHF)。儘管RLHF方法的結果很出色,但其中涉及了一些優化難題。其中涉及訓練一個獎勵模型,然後優化一個策略模型來最大化該獎勵。近段時間已有一些研究者探索了更簡單的離線演算法,其中之一就是直接偏好優化(DPO)。 DPO是透過參數化RLHF中的獎勵函數來直接根據偏好資料學習策略模型,這樣就無需顯示式的獎勵模型了。此方法簡單穩定

微軟全螢幕彈窗催促:Windows 10用戶抓緊時間升級到Windows 11 微軟全螢幕彈窗催促:Windows 10用戶抓緊時間升級到Windows 11 Jun 06, 2024 am 11:35 AM

6月3日訊息,微軟正在積極向所有Windows10用戶發送全螢幕通知,鼓勵他們升級到Windows11作業系統。這項舉措涉及了那些硬體配置並不支援新系統的設備。自2015年起,Windows10已經佔了近70%的市場份額,穩坐Windows作業系統的霸主地位。然而,市佔率遠超過82%的市場份額,佔有率遠超過2021年問世的Windows11。儘管Windows11已經推出已近三年,但其市場滲透率仍顯緩慢。微軟已宣布,將於2025年10月14日後終止對Windows10的技術支持,以便更專注於

無需OpenAI數據,躋身程式碼大模型榜單! UIUC發表StarCoder-15B-Instruct 無需OpenAI數據,躋身程式碼大模型榜單! UIUC發表StarCoder-15B-Instruct Jun 13, 2024 pm 01:59 PM

在软件技术的前沿,UIUC张令明组携手BigCode组织的研究者,近日公布了StarCoder2-15B-Instruct代码大模型。这一创新成果在代码生成任务取得了显著突破,成功超越CodeLlama-70B-Instruct,登上代码生成性能榜单之巅。StarCoder2-15B-Instruct的独特之处在于其纯自对齐策略,整个训练流程公开透明,且完全自主可控。该模型通过StarCoder2-15B生成了数千个指令,响应对StarCoder-15B基座模型进行微调,无需依赖昂贵的人工标注数

LLM全搞定! OmniDrive:集3D感知、推理規劃於一體(英偉達最新) LLM全搞定! OmniDrive:集3D感知、推理規劃於一體(英偉達最新) May 09, 2024 pm 04:55 PM

寫在前面&筆者的個人理解這篇論文致力於解決當前多模態大語言模型(MLLMs)在自動駕駛應用中存在的關鍵挑戰,即將MLLMs從2D理解擴展到3D空間的問題。由於自動駕駛車輛(AVs)需要針對3D環境做出準確的決策,這項擴展顯得格外重要。 3D空間理解對於AV來說至關重要,因為它直接影響車輛做出明智決策、預測未來狀態以及與環境安全互動的能力。目前的多模態大語言模型(如LLaVA-1.5)通常只能處理較低解析度的影像輸入(例如),這是由於視覺編碼器的分辨率限制,LLM序列長度的限制。然而,自動駕駛應用需

See all articles