栗子来自奥菲寺。
量子报道| QbitAI,微信官方账号。
漫画汉化组,不要手动擦除原文:开源AI一键擦除,修复背景'/
来自《弹丸论破》。
漫画汉化集团和动画字幕组表面上都是翻译家,但他们的工作却大相径庭。
比如动画的日本生肉一般没有字幕,漫画全是文字。
因此,在漫画的中文小组在发布中文之前必须删除原文。
需要抹掉的,不只气泡里的对话,还有背景里的旁白,以及字体硕大雄健的拟声词。
如此巨大的工作量,还是交给AI吧,只要一个关键:
漫画汉化组,不要手动擦除原文:开源AI一键擦除,修复背景'/
整篇文字消失了,人类一点帮助都没有。
人工智能的名字叫SickZil-Machine,是由一群韩国伙伴开发的,并且是开源的。
不仅去掉了文字,还打了背景补丁:
漫画汉化组,不要手动擦除原文:开源AI一键擦除,修复背景'/
有了它,本地化团队将不再需要大规模手动擦除。
面对这种情况,人类表达了短暂的相遇:
漫画汉化组,不要手动擦除原文:开源AI一键擦除,修复背景'/
那么,韩国青少年是怎么生出这个AI的呢?
#一步两步
团队表示,这是一款完全自动消除漫画字符的AI;但是,如果人类需要,也可以手动指定消除一些字符。
至于如何抹掉文字,AI由两个机器学习模型组成:
漫画汉化组,不要手动擦除原文:开源AI一键擦除,修复背景'/
一个是SegNet,他负责分离出需要删除的文本部分。
一个是ComplNet,负责擦除后完成背景。
挖掘出这些字符的SegNet,借用了他的前任U-Net:的图像分割技术
漫画汉化组,不要手动擦除原文:开源AI一键擦除,修复背景'/
U-Net结构就像一个U型结构,是从FCN改进而来的。
用配对数据训练分割。这里配对的数据是漫画,的原图加上文字部分的蒙版。
仅使用了285对数据。
挑出单词后,是时候让ComplNet填充背景了。它借鉴了DeepFillv2's图像复原算法:
DeepFillv2来自UIUC和Adobe,AI可以完全修复图像的任何部分。
enter">漫画汉化组,不用手动擦掉原文了:开源AI一键抹去,还能修复背景' />比如,抹掉一盏路灯,AI便会把路灯背后的建筑物补好。
除此之外,还能按自己的意志修改图片:
漫画汉化组,不用手动擦掉原文了:开源AI一键抹去,还能修复背景' />
把人类的下巴擦掉,再描个短一点的下巴,AI就会给你一张 不是马脸 的人像了。
当然,漫画未必需要这样高度定制,脑补背景就够。
团队用了31,497张图来训练,其中11,464张是有文字的。
最终,成果斐然:
漫画汉化组,不用手动擦掉原文了:开源AI一键抹去,还能修复背景' />
不过,也不一定要全靠AI,人类可以手动选择要 (或不要) 消除的部分。
先让屏幕显示出AI生成的mask (红色) 。如果发现不该变红的部分红了,就手动把这一部分从mask里去掉,这样AI就不会把它消除了。
漫画汉化组,不用手动擦掉原文了:开源AI一键抹去,还能修复背景' />
比如上面,妹子的脸旁边,没有字的地方红了一大块。那么,把这一部分红色框起来扔掉,就好了。
# 你也试试吧
其实,这个好东西也不一定是汉化组才用得到。
没事做的时候,把漫画原本的台词抹掉,练习填词,也是很健康的活动哟。
比如到了这种时候,人类会说些什么呢:
漫画汉化组,不用手动擦掉原文了:开源AI一键抹去,还能修复背景' />
△来自山下智博
额,哪里健康了?
传送门:
https://github.com/KUR-creative/SickZil-Machine
U-Net传送门:
https://arxiv.org/abs/1505.04597
Deepfillv2传送门:
http://jiahuiyu.com/deepfill2/
― 完 ―
诚挚招聘
量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。
量子位 QbitAI 头条号签约作者
'' 追踪AI技术和产品新动态