三三文章网 - 科技知识大全是专业科技新媒体网站。网站著眼于新一代科技新闻的全面及时处理报导,让网民在外面第二时间交待全球新一代的科技资讯。内容涵括AI+、互联网、IT、创业投资、核定、区块链、智能硬件等领域

真人映像秒高清动画脸,数十种滤镜补选,需要注册在线游戏[siggraph asia2022量子位,

  • 时间:
  • 浏览:0

自己拍摄的动画也转换成高分辨率的动画脸,用这个AI在线可以玩!

有几十种肖像样式,也支持高分辨率。

例如想要生成“迪士尼”:

还想生成游戏中的角色风格:

这会产生皮克斯动画风的效果:

这是一个名为VToonify的开源框架目前在Huggingface和Colab上运行。

看完上面的例子,心里痒痒的吗。下面有一本详细的教程,可以手把手教你怎么玩,快点学吧!

在线可以玩的VToonify的操作可以说非常简单。

首先,选择你喜欢的动画风格,公主风,肌肉风,大眼睛的特殊效果……插图风的东西也准备了5种。

然后,上传包含正确脸部的动画(或图像),点击一次进行缩放。这是为了避免CPU/GPU过载,但不会影响最终生成的视频质量。

此外,您还可以裁剪或填充上传视频的大小。

之后,只需等待十几秒,最终的高清版角色就会到手。

另外,如果对“美颜度”不满意,也可以以后再调整。

那么,这个效果的背景是什么呢

要理解将两个框架集成到一起的VToonify样式迁移的原理,StyleGAN是必不可少的,但是很多画风迁移框架都是以这个模型为基础的。

StyleGAN基础的方法也被称为图片卡通,在潜在的空间中对脸部进行编码,然后将生成的代码应用于由艺术肖像数据集调整的StyleGAN,最终生成不同风格的肖像图像。

1024 × 能生成1024的高分辨率图像是很重要的

但是,StyleGAN在调整肖像的风格时需要以一定的尺寸进行,由于不完整的脸和奇怪的手势会产生影响,所以对动态肖像不太友好。

因此,我来介绍另一个图像转换框架。使用卷积网络的图像转换框架,能很好地无视测试阶段的图像尺寸和人的脸的位置的制约(与StyleGAN完全互补)

回到VToonify,这是两个框架的集大成,是一个全新的混合框架。

研究人员创建了一个编码器生成器架构,删除固定大小的输入特性和低分辨率层,并创建完整的卷积。

具体来说,StyleGAN将模型集成到生成器中,结合模型和数据,将该模式修正特性继承给VToonify。

另外,通过在作为生成器的StyleGAN中训练编码器,可以大幅减少训练时间和难易度。

顺便说一下,这个研究小组在今年3月以DualStyleGAN的框架为基础,开发了可以灵活控制风格、修改风格度的画风过渡AI“帕斯蒂克大师”。

此次研究小组发表了的VToonify,一边继承DualStyleGAN的好处,一边修正DualStyleGAN的风格控制模块,把这些功能进一步扩展到了视频。

研究小组VToonify的研究小组全体人员南洋理工大学

杨秀苑,南洋理工大学研究员,专注于图像的生成和图像的编辑,本科和博士在北京大学学习。

公报吕健勤,南洋理工大学计算机科学与工程学院副教授,也是香港中文大学客座副教授,主要研究计算机视觉与深度学习。

VToonify在线是这边的链接。在意的人请一定要试试看哦。

在线可玩:[1]https://huggingface.co/spaces/pkuwilliamyang/vtoonifycontinueflag=4b9ae61e5c13076ecd7ba4f70434f863 [2] https://colab.research.google.com/github/williamyang1991/vtoonify/blob/master/notebooks/inference_playground.ipynb

论文原文:https://arxiv.org/abs/2209.11224

引用:[1]https://www.reddit.com/r/machinelearning/comments/xyxe8w/r_vtoonify_controllable_highresolution_portrait/ [2] https://huggingface . co / pkuwilliamyang vtoonifycontinueflag = 4 b9ae61e5c13076ecd7ba4f70434f863 [3] https://twitter.com/shuaiyang1991/status / 1576937439528042499