首页 > 科技周边 > 人工智能 > 从“嘿,Siri”到元宇宙,苹果还有多远距离要走?

从“嘿,Siri”到元宇宙,苹果还有多远距离要走?

王林
发布: 2023-06-07 08:01:47
转载
1508 人浏览过

从“嘿,Siri”到元宇宙,苹果还有多远距离要走?

在当前的科技浪潮中,元宇宙的概念凭借其无限的想象力和可能性,像一颗耀眼的新星吸引着世界的目光。巨大的发展潜力,吸引着一波又一波的企业,前赴后继地向元宇宙发起冲锋。

在这些企业当中,苹果是最被寄予厚望的一个重磅选手。6 月 6 日,在经过了长达7年的准备之后,苹果终于让其头戴显示器设备 Vision Pro,在 WWDC 2023 正式亮相了。

某种意义上,在XR设备领域,苹果能走多远,就代表目前的技术前沿能走多远。然而,以目前的情况来看,苹果的产品虽然在多方面有不错的表现,但离人们的期待还是有不少距离。从诸多设计和指标,都能看出目前的技术瓶颈以及苹果不得不作出的一些妥协。更重要的是,Vision Pro的最终售价高达3499美元(约合人民币24860元),这个价格意味着这款产品必然是一个小众的“玩具”,不能飞入寻常百姓家。

从“嘿,Siri”到元宇宙,苹果还有多远距离要走? 苹果公司股价情况

那么,我们离理想化的元宇宙世界还有多远呢,到底还需要解决哪些技术问题和挑战?为了回答这个问题,数据猿采访了Cocos CEO林顺、DataMesh创始人兼CEO 李劼、优立科技CEO张雪兵、云天畅销CTO梁峰 、亚信科技研发中心副总经理陈果、墨宇宙首席产品官林宇等多位业界专家,了解元宇宙各项关键技术的发展态势。接下来,我们将结合苹果最新发布的XR头显产品,深入探讨近眼显示、计算渲染+5G专网、感知交互和内容制作四个关键技术领域的最新发展态势以及存在的挑战。

近眼显示:显示面板技术路线明确,光波导还没摸到“门”

近眼显示是通向元宇宙世界的第一道大门,从苹果此次发布的产品来看,其Vision Pro配备了12颗摄像头,配备Micro OLED屏幕,拥有2300万像素,每只眼睛分配到的像素超越4K电视,可以实现100英寸屏幕的观看,支持3D视频观看,这算是目前能达到的顶尖水平了。

从“嘿,Siri”到元宇宙,苹果还有多远距离要走? 苹果Vision Pro 产品图

那么,整个近眼显示有哪些关键技术,目前行业进展如何呢?在元宇宙的实现中,近眼显示技术是硬件突破的关键。它主要由显示面板和光学系统(尤其是光波导)两部分组成,这两个技术路线都还有许多技术难点需要克服。

1、显示面板,决定了分辨率、色彩饱和度和刷新率,MicroLED被寄予厚望。

显示面板是近眼显示技术的重要组成部分,它直接影响着用户在元宇宙中的视觉体验。显示面板的主要技术指标包括分辨率、色彩饱和度和刷新率,这些指标的提升可以为用户带来更清晰、更丰富、更流畅的视觉体验。

分辨率是显示面板的核心指标之一,它直接决定了元宇宙的细节展现能力。现阶段,面板分辨率的提升正面临着技术瓶颈,如何在保证面板尺寸和功耗的同时提升其分辨率,是显示面板技术需要解决的重要问题。

色彩饱和度是另一个重要指标,它影响着元宇宙的色彩展现能力。目前,虽然各种显示技术在色彩表现力上已经取得了不错的效果,但要在元宇宙中实现真实世界的色彩还有一定的距离。

刷新率影响着用户的动态视觉体验,高刷新率可以提供更流畅的动画效果。然而,提升刷新率会增加计算和功耗的压力,如何在提升刷新率的同时降低功耗,是另一大技术挑战。

在显示面板领域,目前主要的技术包括液晶显示(LCD)、有机发光二极管(OLED)、微型LED(Micro-LED)。虽然LCD技术相对成熟且成本较低,但其在色彩饱和度、对比度和刷新率等方面相较其他技术有所欠缺,而OLED显示器则需要解决寿命和成本问题。

从“嘿,Siri”到元宇宙,苹果还有多远距离要走? 显示面板发展进程

近年来,MicroLED显示技术以其卓越的性能受到了业界的广泛关注。它采用微米级的LED作为像素,不仅能提供更高的分辨率、更宽的色域和更高的刷新率,而且还具有更低的功耗和更长的寿命。但是,MicroLED面板的制造难度大、成本高,特别是在像素尺寸小、像素密度高的情况下,如何实现大规模、高效率的生产,仍是一个待解决的关键技术难题。此次Vision Pro配备的就是Micro OLED屏幕,但在近2.5万的价格中,相信这块Micro OLED屏幕“贡献”了不少。

2、光波导技术的成熟度比显示面板低,其技术路线和突破时间都不确定。

光学系统,尤其是光波导,对于近眼显示技术来说,同样重要。光波导技术的核心是将光线引导到用户的视网膜,从而在用户的视野中产生虚拟图像。而视场角是衡量光波导质量的重要指标,它影响着用户在元宇宙中的视觉范围。

从“嘿,Siri”到元宇宙,苹果还有多远距离要走?

在增强现实(AR)和虚拟现实(VR)设备中,显示面板和光波导通常是紧密结合在一起的。显示面板生成图像,然后这些图像被送入光波导。光波导的任务是将这些图像引导到用户的眼睛,同时还可能进行一些调整以改善视觉体验,例如扩大视场角或调整图像的焦距。这个过程可以简单地想象成一个电影院:显示面板就像是投影机,它产生图像;而光波导就像是投影屏幕,它接收投影机产生的图像并将其呈现给观众(在这种情况下,观众就是用户的眼睛)。

光波导技术可以分为几种不同的类型,包括衍射光波导、折射光波导和全息光波导等。其中,衍射光波导是目前最常用的一种。它通过微型光栅将入射的光线分散成多个角度,然后利用总反射将这些光线引导到用户的视网膜。这种技术可以提供较宽的视场角和较高的成像质量,但在光效率、色散以及复杂的制造过程等方面存在问题。

在光效率方面,衍射光波导的问题在于只有部分光线能够被有效利用,大部分光线会被散射掉,造成能源的浪费。而在色散方面,由于光的衍射角度与有关,因此不同颜色的光线在经过光栅后会产生色散,影响成像的色彩准确性。这对于元宇宙这样追求高度真实感的应用来说,无疑是一大难题。

此外,制造过程的复杂性则表现在对精度的极高要求上。衍射光波导的微型光栅需要精确到纳米级别,这在生产过程中带来了极高的技术难度和成本压力。为了克服这些问题,研究者们正在寻求新的光波导技术,如折射光波导和全息光波导。这些技术以不同的方式来引导光线,有可能在克服衍射光波导的问题方面提供新的解决方案。例如,全息光波导利用全息图像记录和重现光的波前,可以在减少色散和提高光效率方面提供优势。

然而,新的光波导技术也有其自身的挑战。例如,折射光波导虽然在光效率上优于衍射光波导,但其视场角通常较小;而全息光波导则面临着如何实现大规模、高质量的全息图像制造的难题。

总体上看,显示面板技术虽然还有提升的空间,但其技术路线相对确定,可以预期在未来几年会有进一步的提升。相较于显示面板技术,光波导技术的成熟度较低,其技术路线和突破时间还不确定。尽管光波导的基本原理已经被理解,但在实际应用中,如何设计和制造出高效、高质量、低成本的光波导仍然是一项技术挑战。

计算渲染:GPU+云计算+边缘计算+5G能突破算力瓶颈么?

元宇宙要求构建一个富有沉浸感的、与真实世界无缝接轨的虚拟环境,而计算渲染就是实现这一目标的关键技术之一。计算渲染的任务就是将虚拟世界中的三维模型以及其材质、光照等属性,转化为最终用户看到的二维图像。这个过程需要大量的计算,包括几何计算、光线追踪、光照计算、材质渲染、后处理等。

为了提升设备算力,苹果的Vision Pro 采用双芯片设计,包括一枚 Mac 级别的 M2 芯片,同时配置实时传感器处理芯片 R1。其中,R1 芯片主要负责传感器的信号传输、处理。

苹果公司可以为了自家XR设备设计专门的芯片,但就整个行业来看,要实现理想的效果到底需要多大算力呢?接下来我们就这个问题进行更深入的探讨。

1、要较好实现理想的元宇宙场景,每个XR设备至少要塞一块英伟达A100 GPU。

理想的状态是实现实时的、高分辨率的、高帧率的、全光线追踪的渲染,这需要极高的算力。具体的算力需求取决于许多因素,如渲染的复杂度、分辨率、帧率、图像质量等。目前有一些技术来降低计算量,比较典型就是注视点渲染技术,该技术利用人眼视觉特性,只在视线注视点及其周围区域进行高精度渲染,而在其它区域进行低精度渲染,有效降低了渲染任务的复杂度。苹果此次发布的Vision Pro ,就用到了动态注视点渲染技术,将最大的画质精确地传递到用户眼睛正在注视的每一帧。

苹果Vision Pro产品介绍

从“嘿,Siri”到元宇宙,苹果还有多远距离要走?

总体上看,元宇宙对计算渲染的需求还远超现有技术的能力。特别是在移动设备上,由于功耗、散热等问题,算力的提供更为困难。3D数据的处理不仅需要大量的计算资源,而且需要实时或者接近实时的反馈。这就对算力和延迟提出了极高的要求。现有的计算设备,包括最先进的GPU和AI芯片,尚无法完全满足这些需求。

为了更清楚的说明算力供给与元宇宙算力需求之间的“鸿沟”,我们来以一个典型场景来分析算力供需情况。

假设我们想要实现4K分辨率(即3840x2160像素)、60帧/秒、每个像素追踪100条光线的全光线追踪渲染,处理一条光线需要进行大约500次浮点运算(实际数据可能要更高)。

那么需要的算力=3840像素 x 2160像素 x 60帧/秒 x 100光线/像素x 500浮点运算/光线 = 4,976,640,000,000浮点运算/秒=25 TFLOPS。

需要说明的是,这是一个非常粗略的估计,实际所需的算力可能会更高,因为在光线追踪渲染中,除了光线追踪,还有许多其他类型的计算,比如着色、纹理采样、几何变换等。

英伟达高端芯片A100的峰值算力为19.5TFLOPS,在京东上英伟达A100 40G的售价超过6万元。也就是说,要实现比较理想的元宇宙场景渲染效果,一个设备就至少需要一块A100芯片。光是一个芯片成本就超过6万元,那XR设备的价格会更高。其他技术限制先不谈,这个设备价格就是足以劝退绝大部分消费者。

从“嘿,Siri”到元宇宙,苹果还有多远距离要走? 英伟达A100芯片

除了提升通用GPU性能外,针对光线追踪的专用硬件+专门的软件优化,看来是提升元宇宙应用计算性能的一个重要途径。对于元宇宙应用,光线追踪是一个重要的计算任务,因此可以设计专门的光线追踪硬件。英伟达的RTX系列GPU就是一个例子,它们包含了专门的RT核心,用于加速光线追踪计算。这种硬件可以直接在硬件级别执行一些计算密集型的操作,比如光线与场景中的对象的交点计算,从而大大提高计算效率。光线追踪的软件优化方面,则包括更好的光线排序算法、更高效的空间划分结构等。

目前,要进行元宇宙的计算渲染离不开GPU,而GPU算力的来源主要有两个,一是本地的GPU,二是云端的GPU。本地的GPU主要用于游戏、AR/VR设备等需要实时渲染的场景。云端的GPU则可以用于更复杂的渲染任务,如电影特效、建筑可视化等,云端渲染的结果通过网络传输到用户的设备上。

理想的计算渲染解决方案应该是一个综合本地和云端资源的混合渲染系统。这个系统应该可以智能地根据任务的性质、网络状况、设备性能等因素,决定渲染任务在本地还是云端执行,以及如何分配任务。此外,这个系统还应该支持各种渲染技术,如光线追踪、实时光照、全局光照等,以便根据需要选择合适的渲染技术。

要实现这个目标,就需要在本地和云端(或者边缘端)实现高速的数据传输。那么,到底要多高的网速,才能满足元宇宙的要求呢?

2、5G勉强够用,但5G网络建设进度不及预期。

我们还是以上面典型的元宇宙算力需求为例(4K分辨率、60帧/秒、每个像素追踪100条光线的全光线追踪渲染),看看要想以云(边缘)+端的计算渲染方案,需要多大的网络带宽。

如果我们将每个像素的颜色信息简化为24位(8位红色、8位绿色、8位蓝色),来计算需要的网络带宽:

3840像素 * 2160像素 * 24位/像素* 60帧/秒= 11,943,936,000位=11.92Gbps。

5G网络的峰值数据速率理论上可以达到20Gbps,但这是在理想的实验室环境下的峰值速度。在实际使用中,用户通常可以期望在100Mbps到3Gbps之间的速度,离元宇宙的网络需求还有一定距离。即使是比较好的5G网络,也只是勉强堪用。

需要指出的是,即使是全球5G基站最多的中国,5G网络建设进度也并不算快。据计算,如果要构建一个良好的5G网络,至少需要1000万5G基站。而截至2023年2月末,我国5G基站总数达238.4万个,要超过1000万规模还需要几年时间。也就是说,在网络建设方面,我们还没为元宇宙做好准备。

显然,无论是从算力还是网络方面,目前都存在瓶颈。那么,如何破除这个瓶颈呢?为此,数据猿采访了几位业界专家。

就“GPU+云计算+边缘计算,是解除元宇宙算力瓶颈的金钥匙么?”这个问题,优立科技CEO张雪兵认为通过云边端协同并不是解决算力问题的一个很好方式,“云渲染通过将渲染逻辑集中到服务器端,只是降低了少量终端设备在特定时间内的渲染问题。而终端设备发展的趋势是配置越来越高,运算能力越来越强,云渲染的资源堆积在成本角度和并发角度都是低效的,并且浪费了本地设备的算力。本地算力渲染只需要解决本地渲染能力瓶颈一个问题,就可以解决多并发问题,而云渲染+边缘计算+GPU,却需要解决服务器并发量、负载均衡、视频流网络带宽、云端算力瓶颈等多个问题。当通过渲染算法突破本地设备渲染瓶颈的时候,一切云渲染的构建将成为过去。”

张雪兵介绍到,优立科技通过独创的国产自研的流式渲染技术,可以运用本地算力解决海量在线三维数据的远程渲染问题,并且通过CPU渲染无需高配显卡,突破云渲染高成本和数据低并发瓶颈,已经解决了传统云渲染逻辑下无法解决的各种问题。

云天畅销CTO梁峰认为,“5G时代,云游戏、元宇宙等实时交互、快速响应的新兴应用场景,对算力的需求呈现指数级增长,尤其是AI与元宇宙的加速融合,以及算力逐渐从To B到To C的转移,给算力带来了巨大的发展空间。若要真正实现大规模商业化应用,带给用户低延时、沉浸式的体验,目前的算力远无法满足。GPU以其独特、强大的并行运算能力逐渐成为市场探索支撑新兴应用场景算力底座的重要方向,结合云计算和边缘计算,为新兴应用大规模商业化落地提供了新的思路。算网一体、云网融合,打造全域覆盖的算力网络正在成为行业发展趋势。”

亚信科技研发中心副总经理陈果持相同的观点,他认为,“如果要达到元宇宙的理想状态,现有算力资源远远不够——极致的可视渲染、实时的虚实交互、精准的智能推理都对算力资源提出极高要求。未来的“云边端”多元算力协同,将更能满足元宇宙的算力需求。同时,GPU等相关技术也是消除元宇宙算力瓶颈的关键——GPU算力加速图形渲染、提供物理模拟能力,促动XR技术满足元宇宙所需的沉浸式体验;AIGC技术为构建元宇宙场景提供高效率、高精度、低成本的技术手段,促使元宇宙实现“人、场、货”的快速建模;WebGPU技术的发展,使高拟真、真3D的交互式应用变为可能,将较大提升浏览器的图形性能,消除未来元宇宙应用在前端的性能瓶颈。”

感知交互:内部捕捉是元宇宙最自然的交互方式

感知交互是构建元宇宙的另一大挑战。要创造真正的沉浸式体验,就必须确保用户可以自然、直观地与元宇宙进行交互,而这就需要涵盖视觉、听觉和触觉等多个感知维度。

从苹果Vision Pro 产品来看,其采用了手眼语音交互+Eyesight多种交互方式的融合。值得提出的是,Vision Pro 没有配备手柄,这与以往的XR产品有很大的不同。

从“嘿,Siri”到元宇宙,苹果还有多远距离要走? 苹果Vision Pro产品演示图

Vision Pro 通过语音、眼球追踪以及手势来操作,用户通过注视来浏览应用图标,手部轻点选择,轻扫滚动,或者发出语音指令,还可以使用虚拟键盘输入文字。

从“嘿,Siri”到元宇宙,苹果还有多远距离要走? 苹果Vision Pro产品演示图

需要指出的是,Vision Pro还是一个“期货”产品,要等到明年初才正式发售。因此,在演示视频中有哪些功能能实现,效果如何,得等到产品正式上市,用户体验之后才能有真实的感知。

对于感知交互,苹果并没有披露很多的技术细节。接下来,我们从行业角度来分析感知交互的核心技术环节。一般而言,XR设备的感知交互方式,可以分为视觉交互听觉交互、触觉交互、手势交互几种。

视觉交互主要依赖于虚拟现实(VR)和增强现实(AR)技术。目前已经有成熟的VR和AR设备,可以让用户以第一人称视角在元宇宙中移动和观察。但这些设备往往需要佩戴头盔,对用户的舒适度和长时间使用造成了挑战。此外,如何提供足够的视觉分辨率和视场角,使用户感觉像在现实世界一样自然和真实,也是一个重要的技术挑战。

听觉交互则依赖于3D音频技术,包括空间音频和物体音频。这些技术可以创造出富有深度和方向感的音场,让用户可以准确地判断声音的来源和远近。但当前的3D音频技术仍然难以提供完全自然的听觉体验,特别是在模拟复杂的声音环境和声音物理效应方面。

触觉交互是最大的挑战之一。尽管已经有各种触觉反馈设备,如振动手柄和触觉服,但这些设备的反馈强度和精度都无法满足真实世界的触觉体验。更先进的技术,如电刺激和超声波触觉反馈,正在研发中,但尚未成熟。

相比于以上几种方式,手势交互作为一种直观且自然的交互方式,被视为元宇宙中理想的交互手段。

从“嘿,Siri”到元宇宙,苹果还有多远距离要走?

手势交互的有两个核心环节:捕捉和解析,捕捉是指通过各种技术收集用户手部的运动信息,而解析则是对这些信息进行处理,识别出具体的手势和运动。

捕捉技术主要分为外部捕捉和内部捕捉。外部捕捉通常依赖于摄像头或传感器来记录手部的位置和动态,比如微软的 Kinect 和 Leap Motion 就是使用这种方法。内部捕捉则使用穿戴式设备,这类设备通常装备了一系列的传感器,如加速度计、陀螺仪、磁力计等,它们能够在三个空间维度上捕捉手的位移、旋转和加速度。

可以说,内部捕捉是最理想的交互方式。内部捕捉由于传感器直接与手部接触,因此无论用户处于什么环境或光线条件下,都能够稳定、准确地获取手部运动信息。此外,内部捕捉设备通常比较小巧,容易穿戴,用户可以随时随地进行手势交互。内部捕捉最大的技术难点是传感器精度和复杂手势识别能力。手部的运动非常复杂,要准确捕捉并实时转换成虚拟动作,对传感器的精度和处理速度都有很高要求。目前,虽然内部捕捉可以很好地获取手部的基本运动,但对于更复杂的手势,比如手指的微小动作,可能就难以准确识别了。如果能够解决复杂手势的高精度识别难题,内部捕捉将是元宇宙最理想的交互方式。

解析技术方面,则主要依赖于计算机视觉和机器学习算法。计算机视觉用于处理从捕捉设备获得的图像或视频,提取出手部的关键点和轮廓。而机器学习算法,特别是深度学习算法,用于对这些数据进行分析,识别出具体的手势。在解析技术方面,当前的算法主要依赖于深度学习,这要求有大量的标注数据进行训练。然而,由于手部的复杂性和多样性,获取和标注这些数据是非常困难的。

除了捕捉和解析,还有一个问题需要解决——与虚拟物体的交互,如何让用户能够在虚拟环境中通过手势抓取、移动和操纵物体,以及如何给用户提供触觉反馈,都是需要解决的问题。一种可能的方法是使用虚拟手模型,将用户的手势转化为虚拟手的运动,然后让虚拟手去操作虚拟物体。同时,需要研究更有效的触觉反馈技术,如电刺激和超声波,来给用户提供触觉反馈。

可以发现,在感知交互方面,还有一系列技术难题需要解决。

内容制作:ChatGPT、AIGC成为构建智能NPC的关键

苹果是打造内容生态的高手,此次 Vision Pro发布会上,苹果也公布了一些内容建设的进展。例如,Complete HeartX 创造的互动式的 3D 心脏;JigSpace 让设计师能可视化的审阅自己的F1赛车设计草稿 。

从“嘿,Siri”到元宇宙,苹果还有多远距离要走? Vision Pro产品介绍图

需要指出的是,苹果所展示出来的一些内容制作能力,离我们理想的内容元宇宙还有很远的距离。我们想要的是一个像《头号玩家》或者《失控玩家》那样的元宇宙,而不是仅仅是一个个精美的3D“展品”。为了实现这个目标,我们需要探讨元宇宙内容制作的深层逻辑。

在元宇宙中,环境、人的虚拟代表以及非玩家角色(NPC)构成了这个虚拟世界的核心内容。这三者共同构建了元宇宙的世界观和故事线。环境为虚拟世界提供了物理和文化背景,定义了虚拟世界的规则和操作方式。它是虚拟世界的基础,构成了元宇宙的空间维度。人的虚拟代表,或称为玩家角色,是用户在虚拟世界中的身份和行动者。它是用户参与和体验虚拟世界的工具,反映了用户的意愿和行为。

在理想情况下,NPC可以为虚拟世界提供多样化的角色和故事线,丰富虚拟世界的内容和体验。他们是虚拟世界的活动驱动者,能够帮助用户更好地参与和理解虚拟世界。NPC的可塑性和创造性使得元宇宙的故事线具有无尽的可能性,通过与NPC的互动,用户可以在元宇宙中体验到各种各样的故事和冒险。人类在元宇宙中的虚拟代表通过与NPC的互动,可以获得特殊的“特权”或能力。这种“特权”可以帮助用户在虚拟世界中达成目标,提升用户在虚拟世界中的身份和地位。因此,NPC不仅是元宇宙的故事驱动者,也是用户在虚拟世界中获得成功和满足感的重要因素。

从“嘿,Siri”到元宇宙,苹果还有多远距离要走?

然而,要实现上述目标,需要NPC具有高度的智能水平,目前元宇宙中的NPC是远远达不到的。目前的NPC多依赖预设的对话和行为,这使得他们在响应玩家行为时可能显得刻板,缺乏真实感和个性化。同时,NPC在推动故事情节和进行持续交互方面也存在局限。

在这个背景下,使用AI技术,尤其是AIGC、ChatGPT来优化元宇宙内容生产、构建智能NPC的潜力和优势就显得尤为突出。

Cocos CEO 林顺认为,AIGC与元宇宙的结合,可以大大提高内容的生成效率和创造力。AIGC 可以承担繁重、重复的内容创作工作,为开发者节省时间和精力,同时带来更加多样化和丰富的游戏内容。采用 AIGC的技术,可以自动生成世界和场景,加快元宇宙的内容创造过程,让元宇宙的世界更加丰富多彩,服务于各种形态的需求。例如:自动生成任务和剧情,使得元宇宙中的内容更加生动有趣;自动生成NPC和角色设计,AIGC 可以帮助开发者生成各种个性化的 NPC 和角色形象,使得元宇宙中的角色更加多样和独特;自动生成音效和音乐,逼真的音效效果和动态音乐,让元宇宙场景更有身临其境的沉浸体验。

林顺还认为,AI 可以为元宇宙中的 NPC 提供更加逼真和智能的交互,带有“灵魂”的 NPC 可以在元宇宙中形成一个动态的世界,NPC 可以根据玩家的行为和决策作出相应的反应,使游戏世界更加逼真和生动,推进世界的发展。它们可以通过自然语言处理和情感识别技术来理解玩家的指令和情感,并作出相应的回应,从而提供更加个性化和丰富的游戏体验。AI 赋予 NPC 更加真实的"灵魂"或个性,通过情感建模和认知模型,AI 可以使NPC表现出复杂的情感状态、个性特征和行为模式,增加玩家与 NPC 之间的情感连接和互动。

墨宇宙首席产品官林宇表达了类似的观点,他认为,“AIGC将极大的提升元宇宙在“人、物、场景”3个核心要素上的生产效率。比如,在数字人形象造型的设计方面,提升设计效率;在数字人大脑智能的构建方面,极大的提升数字人的智能水平;2D和3D的图片和视频内容的AIGC,可以提升物和场景的建模设计效率。AIGC可以赋予NPC大脑,即“灵魂”,极大的提升NPC的智能化水平,比如NPC和用户的智能问答,不仅是文本的问答,甚至包括语音的问答,以及图片和视频等多模态的智能沟通。”

最后,DataMesh创始人兼CEO 李劼提到,在企业元宇宙领域,还需要解决一个“鸡生蛋还是蛋生鸡”的难题——要有高质量的内容才能吸引用户,但如果没有足够的用户,就无法产生和维护这些高质量的内容。这是一种典型的网络效应问题。

李劼认为,在企业元宇宙的TEMS(培训、体验、监控和模拟)模型下,解决这个问题的一种可能的方式是通过模拟(Simulation)和培训(Training)这两个方面来初始驱动元宇宙的内容生成。在早期,企业可以通过构建特定的模拟场景来进行内部员工的培训和教育,这不仅可以提升员工的技能,也可以为元宇宙提供初期的活跃用户和内容。

随着时间的推移,当员工逐渐适应并依赖于这种新的工作方式,企业元宇宙的用户基础将得到增长,同时这些用户也会在元宇宙中产生大量的交互数据。这些数据可以被收集和分析,从而进一步优化元宇宙的体验(Experience)和监控(Monitor and Control)功能,形成一个良性的循环。

在谈到元宇宙的杀手级应用时,李劼认为杀手级应用可能是一种将TEMS四个方面完美融合的解决方案。例如,一个能够实时模拟复杂业务流程,提供丰富和定制化的培训内容,同时具备高效的监控和控制功能,以及提供无缝、身临其境的用户体验的应用,可能就是元宇宙的杀手级应用。这样的应用不仅可以极大地提升企业的生产效率和员工的工作满意度,也能推动企业的持续创新和发展。

以上,我们分析了XR、元宇宙的一些核心技术领域和面临的挑战。最后,期待苹果这样的公司能够继续突破技术瓶颈,并且早点把价格降下来(超过2万的价格的确不亲民),让《头号玩家》那样绚丽多彩的元宇宙早点到来。

从“嘿,Siri”到元宇宙,苹果还有多远距离要走?

但实事求是的说,我并不看好苹果此次发布的XR头显。苹果是一个伟大的公司,消费电子领域的产品力也独步全球。但是,XR设备、元宇宙行业还存在一些显著的技术瓶颈,要突破这些瓶颈需要全行业的努力,并且需要时间,单靠一个公司来突破是不太可能的。当初苹果发布Iphone,将人类拉入移动互联网时代,并不只是苹果的功劳。事实上,当时人类已经一只脚迈入移动互联网时代了,只不过苹果的产品做得最好,摘了最大的果实。试想一下,如果我们的网络还停留在2G甚至1G,Iphone还有用么?苹果很伟大,但再伟大的企业也不可能超越时代。

理性来看,上面提到的近眼显示、计算渲染、感知交互、内容制作,每一项都还存在不小的挑战。即使强如苹果,也只是在现有产业条件下拿出了一款最好的产品,但离我们的元宇宙理想还差不少的距离。可以预见,等大量用户真正体验到Vision Pro的时候,大概率的感受会是:跟以往XR产品相比有一些不错的设计和突破,但整体离预期还差很远,“槽点”不少。例如,据介绍,Vision Pro那块配套的有线电池只能撑2个小时。

文:一蓑烟雨 / 数据猿

以上是从“嘿,Siri”到元宇宙,苹果还有多远距离要走?的详细内容。更多信息请关注PHP中文网其他相关文章!

相关标签:
来源:sohu.com
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板