本文是北京理工大学和阿里娱乐moku实验室合作的论文《memcap:,形象的纪念式知识》。
字幕”进行解释。
贝丽阿里最新的论文可以自动生成生动的图像和视频描述‘/
本文提出了一种风格化的图像描述方法,它通过记忆机制对与语言风格相关的知识进行编码。由于语言风格不能直接从图像中获取,所以我们使用存储模块来存储关于语言风格的知识,并根据图像中的内容来检索知识。
研究背景
自然字幕的任务涉及对图像内容的理解和自然语言的生成。这是一个连接计算机视觉和自然语言处理的问题。目前,方法的形象描写大多侧重于对形象的准确客观的描写,没有明显的语言风格。事实上,特定语言的描述更有价值。例如,当用户在社交网络上传图1(a)所示的图片时,一般的图像描述模型可以将其描述为“头上背着包的猫坐在沙发上”。虽然准确,但它吸引的力量有限。如果生成的描述有语言风格,比如“这只调皮的猫想体验窒息的感觉”,会带来更好的传播效果,在社交网络上吸引更多的关注。另一个例子是图1(b)中推荐的视频标题,它具有独特的语言风格。如果能够自动生成具有一定风格的相似描述并作为标题使用,将大大减轻视频推荐平台运营商的负担,提升视频推荐的分发效果。
贝丽阿里最新的论文可以自动生成生动的图像和视频描述‘/
图1(a);图1(b)。
风格化的图像描述不仅需要对视觉信息的准确理解来反映客观内容,还需要恰当的语言风格来表达主观感受。但与语言风格相关的内容通常较为抽象,无法从视觉内容中直接感知,难以生成风格化描述。当人们理解图像内容时,通常可以利用相关能力从先验知识中搜索并提取相应的风格化语料库。当人们看到图2并以积极的情感倾向描述其内容时,往往会将“美食”与“美食”联系起来。本文作者提出了一个模因CAP方法来模拟这一过程,并通过一个程式化的记忆模块来存储与语言风格相关的知识。生成描述时,从风格化存储模块中提取相关知识,得到风格化句子。
贝丽阿里最新的论文可以自动生成生动的图像和视频描述‘/
图1:事实图像描述和风格化图像描述的例子。与样式相关的单词以红色显示。
考虑到实际语料库中与视觉内容相关的词通常与语言风格相关的词共存,风格化记忆模块很难学习到干净的风格化语料库。在本文中,我们提出了一种句子分解算法,将与视觉内容相关的部分和与语言风格相关的部分分开。
方法
方法概述.
MemCap模型包括风格化存储模块m、风格化图像描述模块c、图片场景图生成器e、句子场景图生成器f和风格化句子分解模块p,如图3所示。造型存储模块以场景图为输入,检索与场景图相关的造型知识m。这部分知识和场景图被发送到图像描述模块c,生成最终描述。
由于本文的方法只使用不成对的风格化句子进行微调,因此我们将风格化句子分解为内容相关部分和风格相关部分,并转换为场景图作为M和c的输入,同时利用w . s更新M中存储的风格化知识,对c进行端到端的训练。在测试过程中,图像被转换成场景图,作为m和c的输入。
20 |北理&阿里最新论文针对图像视频可以自动生成生动描述' />图2:我们提出的方法概述。 蓝色箭头指示使用不成对的程式化句子的训练过程,红色箭头指示推断过程。
在训练过程中,每个风格化的句子ys被分为内容相关部分Wc和场景相关部分Ws,其中内容相关部分Wc被编码为场景图Gy,后者被用于更新存储模块M。
场景图Gy,并与Gy一起输入字幕器C。 在推理期间,将图像x编码在场景图Gx中,并根据Gx提取样式知识mx。
与训练过程类似,Gx和mx被输入到字幕机C中以生成样式化的字幕。
* 程式化句子分解
给定一个程式化的句子y^s,句子分解的目的是将与风格无关的部分W^c和语言风格部分W^s分开,考虑到与语言风格相关的部分很少出现在事实描述中,我们首先得到句子的依存分析树,然后去掉引起较高混淆的部分,即与语言风格相关的部分。在依赖树中,每个单词w_i对应于树中的一个节点v_i。让第t次迭代中的剩余句子为y((t))^s。在第t次迭代中,尝试删除节点v_j及其子树,并重新评估剩余句子的混乱程度。如果混淆度最低的句子是y
t((t,j))^s,混淆度小于y((t))^s的混淆度,则进入下一个迭代,否则算法终止,y((t))^s作为样式独立部分。
* 场景图的矢量表示
对于场景图G=(V,E),其节点集V包含三个不同的节点:对象节点o_i、关系节点r_ij和属性节点a_i^k。对于每个节点,使用其相应类别标签的单词嵌入作为节点的矢量表示。对于对象节点o_i和关系节点r_ij,使用以下公式计算上下文相关表示u_(o_i)和u_(r_ij):
|北理&阿里最新论文针对图像视频可以自动生成生动描述' />
|北理&阿里最新论文针对图像视频可以自动生成生动描述' />
其中 e_(o_i ),e_(r_ij ) 以及 e_(a_i^k ) 分别为o_i,关系 r_ij 以及属性 a_i^k 的向量表示。整个场景图 G
的向量表示为 e_c,它是所有物体节点与关系节点的上下文相关表示的平均:
|北理&阿里最新论文针对图像视频可以自动生成生动描述' />
* 样式化记忆体模组
对于样式s,样式化存储模块包含两个矩阵M_s
以及〖M'〗_s,分别存储与语言样式相关的知识和相应的目标内容。程式化的记忆体模组使用注意机制来更新和撷取程式化的知识。在更新过程中,计算表示整个场景图的向量e_c
为〖M'〗_s的每一列的权重,并基于这些权重,使用e_c 和表示所有程式化词的向量e_s更新〖M'〗_s 中的数据,更新〖M'〗_s
中的每一列和相应列,在提取程式化知识的过程中,以〖M'〗_s 类似的方式计算每一列的权重,并且M_s中的相应列被加权和求和为存储器模块的输出m。
* 生成样式化描述
本文提出的样式化描述模型是在Up-
Down模型的基础上,利用样式化存储模块的输出m来初始化两层LSTM网络的状态。第一层LSTM网络利用注意机制对场景图中的所有上下文相关表示进行编码,第二层LSTM网络输出词汇表中每个单词的概率。
* 训练策略
MemCap训练分为训练前阶段和微调阶段。在训练前阶段,采用图像和相应的目标描述作为训练数据,采用交叉熵损失函数进行训练。在微调阶段,首先使用交叉熵损失函数对模型进行微调,然后使用自临界方法对模型进行更新[1]。在强化学习中,对多个不同的评价指标(包括句子是否有风格、句子是否混淆)进行加权,作为奖励。
实验结果
本文使用MSCOCO数据集对模型进行预训练,并使用SentiCap数据集中的风格化语料库(包括正面和负面风格)和FlickrStyle10K数据集中的风格化语料库(包括浪漫和幽默风格)对模型进行预训练。进行微调。我们将MemCap方法与许多不同的方法进行了比较,包括使用图片和成对样式化描述的SF-
LSTM方法、使用未配对样式化语料库的StyleNet方法和MSCap方法。为了与MSCap进行比较,实验中同时使用了多个风格化的存储模块,并训练了一个能够同时生成多种风格描述的模型。表1和表2显示了单个样式(为每个样式训练模型)和多个样式(训练可以同时生成多个样式描述的模型)实验的结果。此外,还进行了烧蚀实验,验证了模型中不同模块的有效性。
* 定量结果
本文用Bleu-1、Bleu-3、METEOR、CIDEr等指标来评价生成的句子是否与图片相关,用平均混淆度(ppl)来评价句子是否流畅,用风格准确率(cls)来评价生成的句子是否风格一致。具体地说,使用一个基于风格化文本的语言模型来计算平均混淆度,使用一个能够判断语言风格的分类器来计算风格准确率。需要注意的是,平均混淆度越低越好,其他指标越高越好。
|北理&阿里最新论文针对图像视频可以自动生成生动描述' />
表 1 :单风格图像描述的实验结果,B-1,B-3,M,C 分别表示 Bleu-1,Bleu-3,METEOR,CIDEr;ppl
表示句子的平均困惑度,cls 表示风格准确率。
|北理&阿里最新论文针对图像视频可以自动生成生动描述' />
表 2 :多风格图像描述的实验结果。
* 定性结果
下图显示了一些样式化图像描述的示例,MemCap生成的句子能够正确描述图片内容,具有明显的语言风格。
|北理&阿里最新论文针对图像视频可以自动生成生动描述' />
图3:生成的程式化字幕示例。 每列包含一张图片和相应的风格化句子。 句子的样式以粗体标记,并在反映语言样式的单词或短语下划线。
|北理&阿里最新论文针对图像视频可以自动生成生动描述' />
图4:生成的风格化中文视频字幕的示例。 相应的英文翻译包含在括号中。
结论
如何生成适当语言风格?由于MemCap能够执行单一样式和多种样式的字幕,并且使用不成对的程式化语料进行训练,因此可以轻松,轻松地将其应用于许多现实情况。在两个风格化数据集上的大量实验证明了我们方法的优越性和有效性。
论文地址:
https://wuxinxiao.github.io/assets/papers/2020/MemCap.pdf