李飞飞揭秘创业方向'空间智能”:视觉化为洞察,看见成为理解,理解导致行动
斯坦福李飞飞创业后,首次揭秘新概念“空间智能”。
这不仅是她的创业方向,也是指引她的“北极星”,被她认为是“解决人工智能难题的关键拼图”。
视觉化为洞察;看见成为理解;理解导致行动。
在李飞飞15分钟TED演讲完整公开的基础上,从数亿年前生命进化的起源开始,到人类如何不满足于自然赋予而发展人工智能,直到下一步如何构建空间智能。
9年前,李飞飞在同一个舞台上,向世界介绍了刚诞生不久的ImageNet——这一轮深度学习爆发的起点之一。
她本人也向网友自我安利:如果把两个视频都看了,你就能对过去10年的计算机视觉、空间智能和AI有很好的了解。
下面在不改变其原意的基础上,我们对李飞飞演讲内容做整理。
空间智能,让AI理解现实世界
生物视觉的进化
让我向你展示一些东西,确切地说,我将向你展示“空无一物”。
这是5.4亿年前的世界。纯粹、无尽的黑暗。它之所以黑暗,并不是因为缺少光线。它之所以黑暗,是因为缺少视觉。
尽管阳光能够穿透海洋表面下1000米,来自海底热泉喷口的光线也能透到到海底,充满了生命的海底,但这些古老的水域中找不到一只眼睛。
没有视网膜,没有角膜,没有晶状体。所以所有这些光线,所有这些生命,都未被看见。
曾经有一段时间,“看到”的概念还不存在。它曾经从未被实现过,直到它被实现了。
出于某种我们才开始理解的原因,能够感知光线的第一批生物——三叶虫出现了。它们是最早一批能够感知我们习以为常的现实的生物。它们是最早一批发现除了自己之外还有其他事物存在的生物。
世界第一次充满众多“自我”。
视觉能力被认为引发了寒武纪大爆发,一个动物物种大量进入化石记录的时期。最初是被动体验,简单让光线进入的行为,很快变得更加主动,神经系统开始进化。
视觉变成了洞察力。看变成了理解。理解导致了行动。
所有这些都催生了智能。
计算机视觉的崛起
今天,我们不再满足于自然界赋予的视觉能力。好奇心驱使我们创造机器,希望其视觉能力至少和我们一样,甚至更好。
九年前,在这个舞台上,我提交了一份关于计算机视觉的早期进展报告。
当时,三个强大的力量首次汇聚在一起:
- 一类称为神经网络的算法
- 快速、专门的硬件,称为图形处理单元,或GPU
- 再加上大数据,比如我的实验室花数年时间整理的1500万张图像,称为ImageNet。
它们共同迎来了现代人工智能时代。
从那时起到现在,我们已经走了相当远。
最开始,仅仅给图像贴上标签就是一个重大突破,但算法的速度和准确性迅速提高。
由我的实验室主办的年度ImageNet挑战赛衡量了这一进展。在这张图表中,可以看到每年模型能力的提高,和其中一些里程碑模型。
我们更进一步,创建了能够分割视觉对象或预测它们之间动态关系的算法,这些工作是由我的学生和合作者完成的。
还有更多。
回想上次演讲我展示的第一个计算机视觉算法,AI可以用人类的自然语言描述一张照片。那是我和聪明的学生Andrej Karpathy一起完成的工作。
当时,我大胆地说:“Andrej,我们能让计算机做相反的事情吗?”Andrej笑着说说:“哈哈,那是不可能的。”
好吧,正如您今天看到的,不可能已经变得可能。
这要归功于一系列扩散模型,为当今的生成式AI算法提供动力,可以将人类的提示词转化为照片和视频,创造出全新的事物。
你们中许多人已经看到了OpenAI的Sora,最近取得令人印象深刻的成果。不过,早在几个月前,在没有大量GPU的情况下,我的学生和合作者们就开发出了一个名为Walt的AI视频生成模型。
△Walt发表于2023年12月
这里还有改进的空间,看看那只猫的眼睛,它在波浪下从未被弄湿,好一个灾~难~(cat-astrophe)。
(谐音梗扣钱!)
空间智能:仅仅看是不够的
过去是一个序章,我们将从这些错误中学习,并创造一个我们想象中的未来。在这个未来,我们希望AI尽其所能为我们做事,或帮助我们做事。
多年来,我一直在说拍照和看到和理解不是一回事。今天,我想再补充一点:仅仅看是不够的。
看,是为了行动和学习。
当我们在3D时空中采取行动时,我们学习,我们学会更好地看,更好地做事。大自然通过“空间智能”创造了一个看和行动的良性循环。
为了展示空间智能是什么,请看这张照片。如果你有想要做点什么的冲动,就举起手。
在一刹那,你的大脑观察了这个杯子的几何形状,它在3D空间中的位置,它与桌子、猫和所有其他物体的关系,而且你可以预测接下来会发生什么。
行动的冲动是所有具有空间智能的生物固有的,它将感知与行动联系起来。
如果我们想让AI超越当前能力,我们不仅想要能够看到和说话的AI,我们想要能够行动的AI。
事实上,我们正在取得令人兴奋的进展。
空间智能的最新里程碑是教计算机看到、学习、行动,并学习看到和行动得更好。
而这并不容易。
大自然花费了数百万年时间进化出空间智能,眼睛捕捉光线,将2D图像投射到视网膜上,大脑将这些数据转换成3D信息。
直到最近,一群来自谷歌的研究人员才开发出一种算法,将一组照片转换成3D空间。
我的学生和合作者们更进一步,创建了一个将单个图像变成3D形状的算法。
密歇根大学的一组研究人员找到了一种方法,将句子转换成3D房间布局。
我在斯坦福大学的同事和他的学生们开发了一种算法,可以从单个图像生成无限可能的空间,供观众探索。
这些就是未来可能性的的原型。在这个可能性中,人类可以将我们的整个世界转化为数字形式,并模拟其丰富和细微之处。
大自然在我们每个人的头脑中隐性地做了什么,空间智能技术有望能为我们的集体意识(collective consciousness)做同样的事情。
随着空间智能的加速进步,一个新时代在这个良性循环中正在我们眼前展开。这种循环正在催化机器人学习,这是任何需要理解和与3D世界互动的具身智能系统的关键组成部分。
十年前,我的实验室的ImageNet使数百万张高质量照片的数据库成为可能,帮助训练计算机视觉。
今天,我们正在做类似的事情,训练计算机和机器人如何在3D世界中行动。
这次我们不是收集静态图像,而是开发由3D空间模型驱动的模拟环境,以便计算机可以学习行动的无限可能性。
你刚刚看到的是教导我们的机器人的一小部分例子,这是一个由我的实验室领导的项目,称为Behavior。
我们也在机器人语言智能方面取得了令人兴奋的进展。
使用基于大型语言模型的输入,我学生以及合作者是第一批展示机械臂可以根据口头指令执行各种任务的团队之一。
比如打开这个抽屉或拔掉电话线。或者制作三明治,使用面包、生菜、西红柿,甚至为用户放一张餐巾纸。通常情况下我希望三明治更丰富一些,但这是一个好的起点。
空间智能的应用前景
在古老时代的原始海洋中,能够看到和感知环境的能力引发了与其他生命形式互动的寒武纪大爆发。
今天,那道光正在达到数字思维。
空间智能不仅允许机器与彼此互动,而且还能与人类,以及真实或虚拟的3D世界互动。
随着这个未来成形,它将对许多生命产生深远的影响。
让我们以医疗保健为例。在过去的十年中,我的实验室一直在做初步努力,将AI应用于解决影响患者结果和医疗人员疲劳的挑战。
与来自斯坦福医学院的合作者和其他合作医院一起,我们正在试验一些智能传感器,可以检测到临床医生是否在没有正确洗手的情况下进入病人房间。或跟踪手术器械,或在病人身体面临风险,如跌倒时提醒护理团队。
我们认为这些技术是一种环境智能,就像额外的眼睛。
但我更希望为我们的患者、临床医生和护理人员提供更多的互动帮助,他们迫切需要额外的一双手。
想象一下,一个自主机器人在护理人员专注于病人的同时运输医疗用品,或者用增强现实技术,引导外科医生进行更安全、更快、更少侵入性的操作。
再想象一下,严重瘫痪的病人可以用他们的思想控制机器人。没错,用脑电波来执行你和我习以为常的日常任务。
这是最近我的实验室进行的一项试点研究。在这个视频中,机器人手臂仅通过大脑电信号控制,正在烹饪一顿日本寿喜锅餐。其中信号非侵入性地通过EEG帽收集。
五亿年前,视觉的出现颠覆了黑暗的世界,引发了最深刻的进化过程:动物世界的智能发展。
过去十年AI的进步同样令人惊叹。但我相信,直到我们为计算机和机器人赋予空间智能,就像大自然对我们所有人所做的那样,这场数字寒武纪大爆发的全部潜力才会完全展现。
这是一个激动人心的时刻,教我们的数字伙伴学会推理,和与我们称之为家的这个美丽的3D空间互动,同时也创造更多我们可以探索的新世界。
实现这一未来并不容易,它要求我们所有人深思熟虑,开发始终以人为本的技术。
但如果我们做得好,由空间智能驱动的计算机和机器人不仅会成为有用的工具,还会成为值得信赖的伙伴,在尊重个人尊严的同时,提高我们的生产力、增强我们的人性,提升我们的集体繁荣。
在所有未来中我最兴奋的,是一个AI变得更有感知、有洞察和空间意识,并与我们一道追求创造更好的世界的方法。
(全文完)
视频回放:https://www.ted.com/talks/fei_fei_li_with_spatial_intelligence_ai_will_understand_the_real_world/transcript
以上是李飞飞揭秘创业方向'空间智能”:视觉化为洞察,看见成为理解,理解导致行动的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

Video Face Swap
使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

热门话题











0.这篇文章干了啥?提出了DepthFM:一个多功能且快速的最先进的生成式单目深度估计模型。除了传统的深度估计任务外,DepthFM还展示了在深度修复等下游任务中的最先进能力。DepthFM效率高,可以在少数推理步骤内合成深度图。下面一起来阅读一下这项工作~1.论文信息标题:DepthFM:FastMonocularDepthEstimationwithFlowMatching作者:MingGui,JohannesS.Fischer,UlrichPrestel,PingchuanMa,Dmytr

想象一下,一个人工智能模型,不仅拥有超越传统计算的能力,还能以更低的成本实现更高效的性能。这不是科幻,DeepSeek-V2[1],全球最强开源MoE模型来了。DeepSeek-V2是一个强大的专家混合(MoE)语言模型,具有训练经济、推理高效的特点。它由236B个参数组成,其中21B个参数用于激活每个标记。与DeepSeek67B相比,DeepSeek-V2性能更强,同时节省了42.5%的训练成本,减少了93.3%的KV缓存,最大生成吞吐量提高到5.76倍。DeepSeek是一家探索通用人工智

AI,的确正在改变数学。最近,一直十分关注这个议题的陶哲轩,转发了最近一期的《美国数学学会通报》(BulletinoftheAmericanMathematicalSociety)。围绕「机器会改变数学吗?」这个话题,众多数学家发表了自己的观点,全程火花四射,内容硬核,精彩纷呈。作者阵容强大,包括菲尔兹奖得主AkshayVenkatesh、华裔数学家郑乐隽、纽大计算机科学家ErnestDavis等多位业界知名学者。AI的世界已经发生了天翻地覆的变化,要知道,其中很多文章是在一年前提交的,而在这一

波士顿动力Atlas,正式进入电动机器人时代!昨天,液压Atlas刚刚「含泪」退出历史舞台,今天波士顿动力就宣布:电动Atlas上岗。看来,在商用人形机器人领域,波士顿动力是下定决心要和特斯拉硬刚一把了。新视频放出后,短短十几小时内,就已经有一百多万观看。旧人离去,新角色登场,这是历史的必然。毫无疑问,今年是人形机器人的爆发年。网友锐评:机器人的进步,让今年看起来像人类的开幕式动作、自由度远超人类,但这真不是恐怖片?视频一开始,Atlas平静地躺在地上,看起来应该是仰面朝天。接下来,让人惊掉下巴

本月初,来自MIT等机构的研究者提出了一种非常有潜力的MLP替代方法——KAN。KAN在准确性和可解释性方面表现优于MLP。而且它能以非常少的参数量胜过以更大参数量运行的MLP。比如,作者表示,他们用KAN以更小的网络和更高的自动化程度重现了DeepMind的结果。具体来说,DeepMind的MLP有大约300,000个参数,而KAN只有约200个参数。KAN与MLP一样具有强大的数学基础,MLP基于通用逼近定理,而KAN基于Kolmogorov-Arnold表示定理。如下图所示,KAN在边上具

哭死啊,全球狂炼大模型,一互联网的数据不够用,根本不够用。训练模型搞得跟《饥饿游戏》似的,全球AI研究者,都在苦恼怎么才能喂饱这群数据大胃王。尤其在多模态任务中,这一问题尤为突出。一筹莫展之际,来自人大系的初创团队,用自家的新模型,率先在国内把“模型生成数据自己喂自己”变成了现实。而且还是理解侧和生成侧双管齐下,两侧都能生成高质量、多模态的新数据,对模型本身进行数据反哺。模型是啥?中关村论坛上刚刚露面的多模态大模型Awaker1.0。团队是谁?智子引擎。由人大高瓴人工智能学院博士生高一钊创立,高

目标检测在自动驾驶系统当中是一个比较成熟的问题,其中行人检测是最早得以部署算法之一。在多数论文当中已经进行了非常全面的研究。然而,利用鱼眼相机进行环视的距离感知相对来说研究较少。由于径向畸变大,标准的边界框表示在鱼眼相机当中很难实施。为了缓解上述描述,我们探索了扩展边界框、椭圆、通用多边形设计为极坐标/角度表示,并定义一个实例分割mIOU度量来分析这些表示。所提出的具有多边形形状的模型fisheyeDetNet优于其他模型,并同时在用于自动驾驶的Valeo鱼眼相机数据集上实现了49.5%的mAP

特斯拉机器人Optimus最新视频出炉,已经可以在厂子里打工了。正常速度下,它分拣电池(特斯拉的4680电池)是这样的:官方还放出了20倍速下的样子——在小小的“工位”上,拣啊拣啊拣:这次放出的视频亮点之一在于Optimus在厂子里完成这项工作,是完全自主的,全程没有人为的干预。并且在Optimus的视角之下,它还可以把放歪了的电池重新捡起来放置,主打一个自动纠错:对于Optimus的手,英伟达科学家JimFan给出了高度的评价:Optimus的手是全球五指机器人里最灵巧的之一。它的手不仅有触觉
