三三文章网 - 科技知识大全是专业科技新媒体网站。网站著眼于新一代科技新闻的全面及时处理报导,让网民在外面第二时间交待全球新一代的科技资讯。内容涵括AI+、互联网、IT、创业投资、核定、区块链、智能硬件等领域

高糊动作秒变4K!Facebook发布低分辨率视频实时渲染算法:好东西玩不了-量子比特

  • 时间:
  • 浏览:0

贾浩楠凹非报道寺量子位|公众号发qbitai

还记得引起巨大讨论,将LeCun逼到推特的低分辨率图像复原算法PULSE吗

PULSE是一种恢复低分辨率图像的算法,但在PULSE出现后,开发了一种实时渲染高分辨率模糊视频的算法

不久前,在SIGRAPH2020上发表的一篇新论文提出了一种神经网络算法的神经超级采样。

新算法允许低分辨率视频的4*4实时渲染。也就是说,几乎所有的视频都可以以16倍的分辨率变成4k视频。

1080p的渲染延迟可抑制到24.4毫秒!

除了超低延迟之外,该算法的一大进步是从特定的硬件和技术(如真实引擎的TAAU和英伟达的DSSL)中解放出来,可以在PC上实现。

高糊骑兵动画马上就要4K了!

很快,我们将进行实时渲染实测。

下图从上到下,使用神经超采样算法(分辨率16倍)渲染以低分辨率输入的视频,从而脱机渲染目标屏幕快照。

通过“神经超采样”算法的实时渲染输出,可以看到以相当接近目标渲染影像的精度再现了详细的影像。

如此出色的表现,令网友惊叹不已。Facebook方面认为,该技术主要用于游戏开发和实时VR技术,但网友们希望FB将该技术用于重置早期的3D游戏,如德尔塔福斯、驱逐等。

有些游戏已经有了重制版,但该算法允许自动渲染,并大大提高了效率。

那么这个高性能的实时渲染算法是如何实现的呢

秒4K怎么实现

neural-supersampling for realtime rendering算法主要具有四种不同的功能。

首先是特征提取模块,有三层卷积神经网络。此子网络单独处理每个输入帧,并在除当前帧以外的所有帧中共享权重。

对于每一帧,特征提取模块将颜色和深度作为输入生成8个通道的学习特征,将输入的颜色和深度连接起来获得共计12个通道的特征。网络如下图所示。

接下来,为了降低网络重建的复杂性,我们使用渲染的运动向量应用时空重投影,将上一帧的像素采样和学习特征投影到当前。

要使用低像素的后向运动矢量,必须将时空重新投影到目标(高)分辨率空间中。首先,将输入(低)分辨率空间的像素样本投影到高分辨率空间,将各输入像素分配给对应的高分辨率像素,将其周围的所有缺失像素设为零。

各输入像素的位置平均配置在作为非采样比的高分辨率的像素之间。零解采样是为了提高效率,并向网络提供哪些示例有效或无效的信息。

然后,可以利用运动矢量的襟翼平滑特性,轻松地将渲染的低分辨率运动矢量贴图调整为高分辨率。这种简单的方法会使未采样的运动矢量产生误差,但通过这种方法可以控制运动矢量。

下一步是对未失采样的前一帧进行反向扭曲,这将使用上采样向量对前一帧进行零上采样。在翘曲过程中采用双线插补。

第三部分是特征权重的重做

渲染的运动向量不会反映动态不协调或着色帧之间的变化。因此,扭曲的帧包含对象,例如阴影到遮挡区域和不匹配阴影区域的不匹配像素。

为了解决这个问题,研究人员引入了特征再加权法模块来阻塞这些不匹配样本。

特征重加权模块是一个三层卷积神经网络,它将当前帧的零采样RGBD、零采样和扭曲的前一帧同时作为输入,为每个前一帧生成像素加权映射。权重值介于0和10之间,10是超级参数。

设置超参数不仅可以衰减学习的贴图,还可以放大每个像素的特征。

最后,每个加权映射将乘以相应前一帧的所有特征。

第四部分是重构,它将当前帧的特征和重新加权的先前帧的特征连接起来,并反馈给输出恢复的高分辨率图像的重构网络。重建子模块采用3级、10层u-net,有跳过连接。

实验结果

团队实验的条件是英伟达Titan V卡,算法使用Nvidia TensorRT优化为16 bit。

下图显示算法渲染不同分辨率视频所需的运行时间(16倍分辨率),单位为ms。Ours是基本算法,ours-fast是简化的快速版。

此表显示了将1080p分辨率渲染为目标时的每个算法步骤的运算时间。

与现行的同功能算法相比,4*4超神经元采样算法在各指标上领先。这些结果是在正常的四个视频中测试了10次。

通用处理器不运行的实时不实时

4*4超神经采样算法对于低分辨率视频的实时渲染非常出色,而Facebook算法官方宣布,它将在PC上运行,超出了特殊的硬件和技术限制。

但是网友们揶揄说,要实现实验结果所示的“实时”渲染表现,英伟达Titan V是必要的。

目前的Titan V售价在3000美元左右,但已被各种厂商优化,甚至更昂贵。

“实时”是有钱人的特权吗。

Reddit用户呼吁,应该制定一个标准,只把通用CPU上可以实时的东西称为实时。

你认为这个实时渲染的高分辨率算法的价值是多少?要付出Titan V的成本来实现这个算法吗

论文地址https://research.FB。com/polual-supersampling-for-real-time-rendering/。

演示成果https://research.FB。com / blog / 2020/07 / introducing neuralsupersampling for realtime rendering /