真人映像秒高清动画脸,数十种滤镜补选,需要注册在线游戏[siggraph asia2022量子位,
- 时间:
- 浏览:0
自己拍摄的动画也转换成高分辨率的动画脸,用这个AI在线可以玩!
有几十种肖像样式,也支持高分辨率。
这是一个名为VToonify的开源框架,目前在Huggingface和Colab上运行。
看完上面的例子,心里痒痒的吗。下面有一本详细的教程,可以手把手教你怎么玩,快点学吧!
在线可以玩的VToonify的操作可以说非常简单。
首先,选择你喜欢的动画风格,公主风,肌肉风,大眼睛的特殊效果……插图风的东西也准备了5种。
然后,上传包含正确脸部的动画(或图像),点击一次进行缩放。这是为了避免CPU/GPU过载,但不会影响最终生成的视频质量。
此外,您还可以裁剪或填充上传视频的大小。
之后,只需等待十几秒,最终的高清版角色就会到手。
另外,如果对“美颜度”不满意,也可以以后再调整。
那么,这个效果的背景是什么呢
要理解将两个框架集成到一起的VToonify样式迁移的原理,StyleGAN是必不可少的,但是很多画风迁移框架都是以这个模型为基础的。
StyleGAN基础的方法也被称为图片卡通,在潜在的空间中对脸部进行编码,然后将生成的代码应用于由艺术肖像数据集调整的StyleGAN,最终生成不同风格的肖像图像。
1024 × 能生成1024的高分辨率图像是很重要的
但是,StyleGAN在调整肖像的风格时需要以一定的尺寸进行,由于不完整的脸和奇怪的手势会产生影响,所以对动态肖像不太友好。
因此,我来介绍另一个图像转换框架。使用卷积网络的图像转换框架,能很好地无视测试阶段的图像尺寸和人的脸的位置的制约(与StyleGAN完全互补)
回到VToonify,这是两个框架的集大成,是一个全新的混合框架。
研究人员创建了一个编码器生成器架构,删除固定大小的输入特性和低分辨率层,并创建完整的卷积。
具体来说,StyleGAN将模型集成到生成器中,结合模型和数据,将该模式修正特性继承给VToonify。
另外,通过在作为生成器的StyleGAN中训练编码器,可以大幅减少训练时间和难易度。
顺便说一下,这个研究小组在今年3月以DualStyleGAN的框架为基础,开发了可以灵活控制风格、修改风格度的画风过渡AI“帕斯蒂克大师”。
此次研究小组发表了的VToonify,一边继承DualStyleGAN的好处,一边修正DualStyleGAN的风格控制模块,把这些功能进一步扩展到了视频。
研究小组VToonify的研究小组全体人员南洋理工大学
杨秀苑,南洋理工大学研究员,专注于图像的生成和图像的编辑,本科和博士在北京大学学习。
公报吕健勤,南洋理工大学计算机科学与工程学院副教授,也是香港中文大学客座副教授,主要研究计算机视觉与深度学习。
VToonify在线是这边的链接。在意的人请一定要试试看哦。
在线可玩:[1]https://huggingface.co/spaces/pkuwilliamyang/vtoonifycontinueflag=4b9ae61e5c13076ecd7ba4f70434f863 [2] https://colab.research.google.com/github/williamyang1991/vtoonify/blob/master/notebooks/inference_playground.ipynb
论文原文:https://arxiv.org/abs/2209.11224
引用:[1]https://www.reddit.com/r/machinelearning/comments/xyxe8w/r_vtoonify_controllable_highresolution_portrait/ [2] https://huggingface . co / pkuwilliamyang vtoonifycontinueflag = 4 b9ae61e5c13076ecd7ba4f70434f863 [3] https://twitter.com/shuaiyang1991/status / 1576937439528042499