Nvidia Research创建了一个无需任何3D训练数据即可预测2D图像的3D属性的AI系统。这项工作将在关于神经信息处理系统的年度会议上进行介绍,在该会议上,学术界和行业的研究人员将分享最新的前沿机器学习技术。现在是第33年,以前称为NIPS的会议将于本周在加拿大温哥华举行。NeurIPS拥有超过13,000名参与者,是一年中最大的AI研究会议。
这项工作由来自多伦多大学矢量研究所,英伟达研究公司和阿尔托大学的研究人员进行,在“学习如何使用基于插值的可微分渲染器预测3D对象”中进行了详细介绍。下一步,Nvidia的AI主管和论文的共同作者Sanja Fidler在接受电话采访时告诉VentureBeat,该公司可能试图将可区分的渲染框架(DIB-R)扩展到更复杂的任务,例如为多个对象或整个场景渲染3D模型。 。此类工作可能会在游戏,AR / VR,机器人或对象跟踪系统中得到应用。
“想象一下,您可以拍摄一张照片,然后出现一个3D模型,这意味着您现在可以查看从[各种]不同角度拍摄了照片的场景。她说:“您可以潜入其中,从不同角度查看它–您可以在照片集中拍摄旧照片,然后将它们变成3D场景,然后像在那儿一样对其进行检查,”她说。
已经开发了许多3D作品中的深度学习。Facebook AI Research和Google的DeepMind也已经实现了2D到3D AI,但是DIB-R是最早的神经或深度学习架构之一,可以拍摄2D图像,然后预测几个关键的3D属性,例如形状,3D几何和颜色菲德勒说,物体的质地和质地。