更新时间:作者:佚名
大家好,今天小编来为大家解答Meta发布SAM 3D模型秒级实现真实物体VR这个问题,很多人还不知道,现在让我们一起来看看吧!

(Nweon,2025 年11 月25 日)借助Meta 的新SAM 3D 对象模型,AI 可以将现实世界的对象转换为3D 资产,并在几秒钟内将其带入VR。
多年来,通过使用传统摄影测量技术从不同角度拍摄数十张图像,可以生成物体的3D 模型。例如,Epic 的RealityScan 需要大约15 到45 分钟的云处理时间,而Apple 为其iPhone Pro 型号提供的设备上对象捕获API 则需要大约5 分钟。
但在过去一年左右的时间里,先进的人工智能模型已经出现,可以在几秒钟内从单个图像生成3D 资产。虽然质量还无法与摄影测量相媲美,但随着每一个新型号的发布,生产质量都在稳步提高,反映出人工智能领域整体的快速进步。
作为这项技术如何应用于VR 的一个例子,Takahiro “Poly” Horikawa 在SideQuest 上发布了一款Quest 应用程序,允许您通过手动跟踪来框定特定的现实世界物体并拍照。这背后使用了Meta的透视相机API。随后,该图像被提供给Stability AI,并由基于TripoSR 模型的Stable Fast3D API 进行处理。生成的3D 模型将作为虚拟对象出现在拍摄图像的位置旁边。
然而,距离TripoSR车型推出已经近两年了。几天前,Meta 发布了SAM 3D 对象模型,这是一种用于从单个图像生成3D 资产的新尖端模型。
您可以通过Meta AI 演示页面上的Web 浏览器免费测试SAM 3D 对象模型。只需提供图像,您就可以选择要转换为3D 模型的对象。几秒钟后,您将看到3D 视图,并可以用鼠标或手指圈出该对象。
Meta 的网站不是为移动设备屏幕设计的,因此您最好使用PC、笔记本电脑、平板电脑或VR 耳机。另请注意,模型仅针对无生命物体设计,不适用于人或动物。
此免费公共演示不允许您下载3D 模型。但SAM 3D 对象模型是开源的,可以在GitHub 和Hugging Face 上获取。这意味着开发人员应该能够将其部署在提供GPU 的云计算平台上,并使用它来提供类似于EchoTheReality 演示的体验,但具有更高质量的输出,因为它本质上是将现实生活中的物体拉入VR 世界。