2022年淘寶造物節3D直播虛擬營地技術亮點揭秘
2022年8月24日,淘寶造物節全新亮相!為了探索下一代網路沉浸式購物體驗,本次造物節除了在線下廣交會展館打造一個兩萬平⽶全景式的「未來營地」以外, 線上首次上線可萬人同時在線的虛擬互動空間「3D瘋狂城-造物節虛擬營地」。
在3D虛擬營地裡,使用者能夠以輕量級的方式體驗高清的遊戲質感,並以虛擬人物形象加入到「3D人貨場」的世界,與玩家互動,與3D商品互動,滿足新一代消費族群愛玩、愛造的訴求,以創新的科技帶來全新的消費體驗。
下面我們一起看看3D直播虛擬營地的體驗&技術亮點:
輕量級裸眼3D「實景遊戲」
曾經你喜歡一款3D遊戲,客戶端下載好幾個G,想玩新遊戲時卻不得不卸載,真是太佔內存了!在造物節的虛擬營地,你快速加載出一款裸眼3D、可互動、可直播,甚至還能買買買的高清畫面“遊戲”,而且你的淘寶App“一點都沒變大”,手機加載速度「嗖嗖的」~
▐ 技術亮點:雲端成本的挑戰
傳統的在行動端做3D遊戲應用的開發,往往需要在端測整合數十上百M 的遊戲引擎,還需要下載幾個G的素材資源,這在淘寶app 內目前是不切實際的。採用雲端渲染的方式可以很好的解決這個問題,借助雲端強大的GPU完成高清複雜的場景渲染,用戶無需下載大型的資源文件,也不需要安裝任何內容,唯一需要的就是播放實時渲染的媒體流。
但這裡帶來的最大的問題就是雲端渲染機器的成本問題。為了降低雲端渲染機器的成本, 我們除了在雲端渲染方面,做好模型減面、dp 合併、貼圖優化、降低視訊素材解析度等效能最佳化策略。還在機器調度上, 結合業務場景做了分時段動態擴縮容策略,最大程度提高機器的使用率。
3D人與3D商品首次在3D虛擬世界相遇
曾經在「淘寶人生」裡穿衣打扮的3D用戶,第一次「走」出小家,來到了造物節的直播3D虛擬營地。在這裡,你可以自由跳動、點燃篝火,還可以查看3D商品,觀看賣家直播,與玩家互動交流。 3D人、3D商品、3D環境結合在一起,給你沉浸式的奇妙營地探險體驗。
▐ 科技亮點:人貨場的搭建與互動
人與人的互動 。淘寶人生裡的3D人物,放置到3D虛擬世界裡來,首先需要一定的資產轉換和渲染成本。用戶在營地裡跑動,涉及到用戶位置的即時同步。對於用戶實時漫遊,我們採用幀同步的技術,按照固定頻率去更新用戶位置信息, 理想情況下,用戶是不會感覺到卡頓的, 但是不可避免網絡擁塞引起幀間抖動,相鄰兩次位置同步的時間超過一定間隔,則會造成跳變。為了彌補這種不足, 我們在人物渲染的時候採用了運動補償的演算法,簡單說就是透過演算法模擬讓用戶位置移動過渡的更加平滑。同時在互動資料的同步方面,採用了AOI 網格演算法, 解決多人同螢幕資料同步的問題。 這樣,3D人物在虛擬世界裡隨意跑動都會比較流暢順滑。
人與商品的互動。使用者想要在虛擬場景下自由查看3D商品的細節並不容易,我們有兩種方案可以選擇:一種是行動端渲染,一種是雲端渲染。行動端渲染在淘寶內也有相對成熟的解決方案,遺憾的是行動端的渲染引擎和雲端渲染引擎並不是一套, 所以同一個商品模型並不能通用, 同時還要考慮模型動態下載, 減面優化等問題,為了避開這些劣勢,我們還是選擇了雲端渲染的方案,透過動態切換相機視角,即時回應用戶端的互動指令,以達到旋轉、縮放觀看3D商品的體驗。
1080P解析度酷炫高清畫質
曾經你在手機App裡嘗試頁面小遊戲,糊得如同馬賽克,跑跑跳跳還掉幀。造物節全新3D虛擬營地,畫質高清、效果流暢,舞檯燈光還能動態追蹤到身為「明星」的你~
▐ 技術亮點:雲端渲染的內容製作與即時傳輸
在雲端,我們採用虛幻引擎做即時畫面的渲染, 並且結合動態運鏡、動態舞檯燈光、人物多視角、粒子效果等技術讓畫面看起來更酷炫,使用者互動感更強。為了把高清的畫面傳輸到用戶的手機上,我們需要綜合考慮畫質,卡頓,延時的平衡, 借助大淘寶和阿里雲共建的GRTN傳輸網絡,以及自研的編解碼算法,可以最大程度保障畫質的清晰。
互動式虛擬畫面不卡頓
曾經你在淘寶主播直播間,倒數「3、2、1、開搶!」感受到了超低延遲秒殺的爽感。但螢幕外的你,卻無法透過互動直接介入直播間主播的行動。在3D虛擬營地的你,一邊跳舞一邊打招呼,還可以點擊商家的3D商品,觀看喜歡的主播講解,實實在在做到了「與商家、主播同框交流」。
▐ 技術亮點:全連結超低延遲
不同於互不干擾的畫面傳輸,在互動下實現超低延遲的流暢體驗,我們需要在百毫秒內完成使用者指令的上行、 即時畫面的渲染、並將渲染好的畫面回到使用者手機端。首先,這裡面要綜合考慮使用者的機器、網路、存取點狀況,來動態選擇離使用者最近的推流節點,進而調整雲端的推流策略(包括清晰度,編碼方式的選擇)。其次,在傳輸過程中,還需採用即時頻寬回饋、FEC 、動態buffer 等弱網控制策略來對抗網路的抖動, 從而使整個鏈路延時達到合理的位置,最終實現在虛擬世界的交互中,保障流暢的互動體驗。
結語
這次造物節3D虛擬營地,是淘寶虛擬互動空間「3D瘋狂城」系列的首次上線嘗試。 下一步,我們將會結合雲端即時渲染, XR/CG技術實現虛擬化場景客製化, 支撐更大規模的使用者即時互動,為消費者帶來更沉浸式互動體驗。
以上是2022年淘寶造物節3D直播虛擬營地技術亮點揭秘的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

熱門話題

寫在前面&筆者的個人理解三維Gaussiansplatting(3DGS)是近年來在顯式輻射場和電腦圖形學領域出現的一種變革性技術。這種創新方法的特點是使用了數百萬個3D高斯,這與神經輻射場(NeRF)方法有很大的不同,後者主要使用隱式的基於座標的模型將空間座標映射到像素值。 3DGS憑藉其明確的場景表示和可微分的渲染演算法,不僅保證了即時渲染能力,而且引入了前所未有的控制和場景編輯水平。這將3DGS定位為下一代3D重建和表示的潛在遊戲規則改變者。為此我們首次系統性地概述了3DGS領域的最新發展與關

0.寫在前面&&個人理解自動駕駛系統依賴先進的感知、決策和控制技術,透過使用各種感測器(如相機、光達、雷達等)來感知周圍環境,並利用演算法和模型進行即時分析和決策。這使得車輛能夠識別道路標誌、檢測和追蹤其他車輛、預測行人行為等,從而安全地操作和適應複雜的交通環境。這項技術目前引起了廣泛的關注,並認為是未來交通領域的重要發展領域之一。但是,讓自動駕駛變得困難的是弄清楚如何讓汽車了解周圍發生的事情。這需要自動駕駛系統中的三維物體偵測演算法可以準確地感知和描述周圍環境中的物體,包括它們的位置、

寫在前面&筆者的個人理解目前,在整個自動駕駛系統當中,感知模組扮演了其中至關重要的角色,行駛在道路上的自動駕駛車輛只有通過感知模組獲得到準確的感知結果後,才能讓自動駕駛系統中的下游規控模組做出及時、正確的判斷和行為決策。目前,具備自動駕駛功能的汽車中通常會配備包括環視相機感測器、光達感測器以及毫米波雷達感測器在內的多種數據資訊感測器來收集不同模態的信息,用於實現準確的感知任務。基於純視覺的BEV感知演算法因其較低的硬體成本和易於部署的特點,以及其輸出結果能便捷地應用於各種下游任務,因此受到工業

StableDiffusion3的论文终于来了!这个模型于两周前发布,采用了与Sora相同的DiT(DiffusionTransformer)架构,一经发布就引起了不小的轰动。与之前版本相比,StableDiffusion3生成的图质量有了显著提升,现在支持多主题提示,并且文字书写效果也得到了改善,不再出现乱码情况。StabilityAI指出,StableDiffusion3是一个系列模型,其参数量从800M到8B不等。这一参数范围意味着该模型可以在许多便携设备上直接运行,从而显著降低了使用AI

軌跡預測在自動駕駛中承擔著重要的角色,自動駕駛軌跡預測是指透過分析車輛行駛過程中的各種數據,預測車輛未來的行駛軌跡。作為自動駕駛的核心模組,軌跡預測的品質對於下游的規劃控制至關重要。軌跡預測任務技術堆疊豐富,需熟悉自動駕駛動/靜態感知、高精地圖、車道線、神經網路架構(CNN&GNN&Transformer)技能等,入門難度很高!許多粉絲期望能夠盡快上手軌跡預測,少踩坑,今天就為大家盤點下軌跡預測常見的一些問題和入門學習方法!入門相關知識1.預習的論文有沒有切入順序? A:先看survey,p

這篇論文探討了在自動駕駛中,從不同視角(如透視圖和鳥瞰圖)準確檢測物體的問題,特別是如何有效地從透視圖(PV)到鳥瞰圖(BEV)空間轉換特徵,這一轉換是透過視覺轉換(VT)模組實施的。現有的方法大致分為兩種策略:2D到3D和3D到2D轉換。 2D到3D的方法透過預測深度機率來提升密集的2D特徵,但深度預測的固有不確定性,尤其是在遠處區域,可能會引入不準確性。而3D到2D的方法通常使用3D查詢來採樣2D特徵,並透過Transformer學習3D和2D特徵之間對應關係的注意力權重,這增加了計算和部署的

寫在前面項目連結:https://nianticlabs.github.io/mickey/給定兩張圖片,可以透過建立圖片之間的對應關係來估計它們之間的相機姿態。通常,這些對應關係是二維到二維的,而我們估計的姿態在尺度上是不確定的。一些應用,例如隨時隨地實現即時增強現實,需要尺度度量的姿態估計,因此它們依賴外部的深度估計器來恢復尺度。本文提出了MicKey,這是一個關鍵點匹配流程,能夠夠預測三維相機空間中的度量對應關係。透過學習跨影像的三維座標匹配,我們能夠在沒有深度測試的情況下推斷度量相對

寫在前面&筆者的個人理解這篇論文致力於解決當前多模態大語言模型(MLLMs)在自動駕駛應用中存在的關鍵挑戰,即將MLLMs從2D理解擴展到3D空間的問題。由於自動駕駛車輛(AVs)需要針對3D環境做出準確的決策,這項擴展顯得格外重要。 3D空間理解對於AV來說至關重要,因為它直接影響車輛做出明智決策、預測未來狀態以及與環境安全互動的能力。目前的多模態大語言模型(如LLaVA-1.5)通常只能處理較低解析度的影像輸入(例如),這是由於視覺編碼器的分辨率限制,LLM序列長度的限制。然而,自動駕駛應用需
