英伟达再出AI黑科技,通过生成模型渲染3D环境

时间:2021-11-19 00:32 作者:华体会体育
本文摘要:近日,在蒙特利尔举办的神经信息处理系统大会(NeurIPS)上,英伟达在一篇为题“视频到视频制备(“Video-to-VideoSynthesis”)”的技术论文中阐释了其近期AI成果。据透漏,英伟达近期研发的这项成果,是可以图形制备交互式3D环境的AI技术。在创立细致的3D环境时,英伟达研发团队仍然用于传统的图形技术,而是用于神经网络,尤其是“分解模型”,通过来自如YouTube等来源的现实视频,展开模型训练,最后建构细致的3D虚拟世界。

华体会体育官网

近日,在蒙特利尔举办的神经信息处理系统大会(NeurIPS)上,英伟达在一篇为题“视频到视频制备(“Video-to-VideoSynthesis”)”的技术论文中阐释了其近期AI成果。据透漏,英伟达近期研发的这项成果,是可以图形制备交互式3D环境的AI技术。在创立细致的3D环境时,英伟达研发团队仍然用于传统的图形技术,而是用于神经网络,尤其是“分解模型”,通过来自如YouTube等来源的现实视频,展开模型训练,最后建构细致的3D虚拟世界。

华体会体育

华体会体育

英伟达研发团队之所以用于“分解模型”来提升输入的准确性,是由于这种模型拒绝机器必需有效地内化数据的本质,它也因此被普遍指出是增进机器“解读”大量数据之间关系的最有前途的方法之一。但是,像所有神经网络一样,用于这个模型也必须训练数据。

幸运地的是,英伟达研发团队将AI模型应用于街景,通过自动驾驶项目收集到的大量视频数据,保证了其关于城市街道上行经车辆的训练镜头,再行以分段网络辨识有所不同的对象类别,如地面,树木,汽车,天空,建筑物等,研发算法以理解每个对象与其他对象的关系,最后,这些模型创立了城市环境的基本流形结构,然后AI再行从基于从训练数据中学到的东西,仿真世界外观,还包括灯光,材料和动态等,由此分解完全是还原性的高细致3D环境。“由于场景是几乎制备分解的,因此可以精彩编辑以移除,改动或加到对象”英伟达回应。

在论文中,英伟达研发团队得出结论的结论是:“我们明确提出了一种基于条件分解对付网络(GAN)的标准化视频到视频制备框架:通过精心设计的发生器、鉴别器网络以及时空对付物镜,我们可以制备高分辨率、照片级现实、时间完全一致的视频,大量实验指出,我们的结果显著高于最先进设备方法的结果。”被迫否认,迄今为止,AI早已是人类最强有力的创意“加速器”,它让人类的能力以求延伸,并渐渐显得更为强劲。我们都能看见,在全世界范围内,数以万计的科学家们都在为AI技术的前沿突破作出希望,除了英伟达之外,不论是像Google、Facebook这样的海外巨头,还是类似于国内旷视科技、极链科技这样的AI科技公司,都致力于全力研发生产量能像人一样思维的AI技术。2020-03-30 ,旷视科技早已构建AI辨识人脸对象中的各种特征,极链科技早已构建AI解读海量视频的场景传达,而未来,AI必定不仅是不会让机器“知其然”,还要做让它“知其所以然”,以最后构建推展整个AI转入“深度智能”的最出色愿景。


本文关键词:华体会体育,英伟,达,再出,黑,科技,通过,生成,模型,渲染

本文来源:华体会体育-www.mayisiwang.com