作者
介绍
“你要好好活下去,不管发生什么,都不要放弃希望。”这令人心碎的场景来自电影《泰坦尼克号》,是由詹姆斯卡梅隆导演的史诗级浪漫灾难电影,感动了每一位观众。
电影蕴含着巨大的价值,不仅仅是因为它的娱乐功能,更是因为它是人类文化、社会和历史的缩影。从计算机视觉研究的角度来看,他们也是宝贵的数据资源。虽然电影早已进入计算机视觉研究的视线,但是关于电影数据的一个重要问题却鲜有提及——我们可以用视觉模型来进行电影理解吗?
这篇论文的目的是研究一种电影理解方法,从低级特征表示到高级语义分析。这一问题面临两个重要挑战:计算以及标注数据所需的成本过高。首先,目前的视频分析研究主要对象是短视频,只持续几分钟甚至几秒,而电影通常要超过一个小时。对于这样大小的视频,简单的提取特征处理都需要很长时间,更不要说训练模型的时间了。另一方面,视觉模型需要大量的标注样本进行训练,但是对电影进行标注几乎是不可能的任务。
但是电影是有预告片的,导演将最重要的镜头组合起来,作为整部电影的预览。从预告片中,可以看到大量具有代表性的镜头,并且能够从中学习用于电影分析的视觉线索。并且预告片时间一般都在五分钟之内,因此从预告片中学习模型的计算量是合理的。但是,虽然预告片能够保存一部电影的重要特征,但是也失去了时序结构
受到电影预告片的启发,我们提出了一种能够高效地从电影中进行学习的框架。该框架由两个关键模块构成:一个视觉分析模块,从预告片中学习得到,和一个时序分析模块,从电影和视觉模块提取的特征中学习得到。这样设计的原因在于,视觉提取模型通常比时序模型复杂,因此让不同的模块从不同的数据中学习可以将计算成本维持在可负担的水平,同时让算法能够捕捉整部电影的时序结构。我们进一步提出了两个训练策略:(1)挖掘元数据,例如电影流派的信息,故事情节关键词,用它们作为视觉模型训练的监督信息。(2)以自监督的方式学习时序结构。即去掉一部分序列,让模型依据已知的序列来预测被舍去的部分。
图1 我们提出了一个有效的框架来分析电影,分别通过从预告片中学习视觉模型,和从电影中重构时序结构,不仅可以预测镜头级别的标注,并且可以应用于电影分析的各种任务中,例如镜头检索,镜头预测和电影问答。
为了支持这一研究工作,以及未来对该研究方向的扩展,我们构建了一个大型电影和预告片数据集LSMTD,并且定义了一系列方法来评价电影分析模型。实验结果显示,提出的方法减少了训练时间,并且在表现上超过了传统方法训练的模型。
论文贡献
(1) 提出一种新的电影理解模型,其中视觉分析模块和时序理解模块分别在预告片和电影上训练,分别使用元数据和自监督学习方法。
(2) 构建了一个大型电影和预告片数据库,并基于该数据库定义了一系列评价电影理解能力的任务,并且对不同的训练方法进行系统化的对比。
大型电影和预告片数据集(LSMTD)
我们构建了一个大型电影和预告片数据集(LSMTD),包含508部完整的电影(大约10亿帧,20000万个镜头)和34219个预告片(大约10亿帧,10000万个镜头),总计超过2200小时。这是目前可用于电影视觉分析的最大的数据集。
电影从亚马逊和其他商业途径购买,预告片从YouTube下载,电影的流派信息从IMDB上获得,而用户提供的情节关键词则来自TMDB。为了获得更有意义的关键词,我们将出现次数较少的关键词过滤掉,并且将同义词合并,将最初的20000个关键词缩减到33个具有代表性的关键词。
表1 预告片数据库对比
图2 LSMTD样本展示。黑色单词为电影标题,红色为流派关键词,蓝色为情节关键词。
电影分析框架
为了提高模型学习效率,我们并不是用所有的帧来进行学习,而是以镜头作为单元,因为一个镜头内的帧通常相似度很高。基于镜头,提出的框架将学习任务分解为两个部分,分别是从预告片中学习视觉表示,以及从电影中学习时序结构。这一想法的原因有两个,首先预告片比电影短很多,并且包含重要的镜头,因此我们可以从中学习视觉表示,但是预告片不能保持整部电影的时序结构。因此,为了捕捉时序结构,我们使用基于LSTM的模型,利用视觉特征,用自监督的方式进行学习。
从预告片中学习视觉表示
视觉表示模型的目的是学习到能够表示电影镜头的视觉特征,因此可以将其视作一个镜头解码器。
图3 从预告片中学习视觉表示
该部分模型通过两步将镜头进行解码:通过卷积网络提取每帧的特征,然后将每帧的特征结合成基于镜头的表示。这里需要解决的问题是如何快速有效的训练该模型。
基于镜头的表示
虽然预告片相比于整部电影已经很短,一帧一帧的分析依然是十分耗时的。但是预告片具有一个特殊性质,即预告片中每个镜头的帧之间通常十分相近。基于这一特性,我们可以将预告片视为镜头序列,然后从每个镜头中稀疏采样得到关键帧。
给定一个预告片,我们首先采用一个外部工具将其划分成连贯的镜头序列:S1,S2,…,Sn。从每个镜头中,我们采样m帧: I i1 ,⋯,I im Ii1,⋯,Iim ,并且用特征提取器来提取帧特征,记为: f(I ij ;θ) f(Iij;θ) ,theta是特征提取器的参数。随后,我们就可以通过平均池化得到基于镜头的特征表示:
f(S i ;θ)=1m ∑ m j=1 f(I ij ;θ) f(Si;θ)=1m∑j=1mf(Iij;θ)
考虑到卷积神经网络(CNN)的表达能力,我们用CNN作为特征提取器。我们设置m=3,既增强了鲁棒性,也防止过多的帧带来的冗余信息。
训练视觉模型
我们用相关的流派和情节关键词来监督视觉模型的训练。值得注意的是,电影制作人通常会为预告片选择最具有代表性的镜头。因此,预告片中的镜头通常与流派和情节关键词相关。因此我们可以用一种简单的方法来学习模型。我们从预告片中采样n个镜头,然后通过另一级别的平均池化累积它们的特征:
f(T;θ)=1n ∑ n j=1 f(S ϕ(j) ;θ) f(T;θ)=1n∑j=1nf(Sϕ(j);θ)
随后,通过一个全连接层和一个softmax层,将 f(T;θ) f(T;θ) 转换成类别预测,然后根据真实标签对模型进行训练。
从电影中学习时序结构
除了视觉表示,时序结构也是电影的一个十分重要的方面。幸运的是,我们不用从头学习这个结构,而是可以利用从预告片中提取的视觉模型。
我们的时序结构模型基于LSTM网络,能够保持长范围的依赖,同时对短时间内的变化也很敏感,因此该网络很适合用于捕捉电影的时序结构。该LSTM网络将编码过的电影镜头作为输入,并且尝试通过隐状态捕捉语义信息。
为了训练LSTM模型,我们提出了一个自监督的学习方法。我们的想法来源于这样的问题:怎样才能知道模型有没有捕捉到序列结构呢?一个自然的方法是让模型基于已知观测预测后面的序列。在我们的问题中,可以通过让模型根据之前的镜头来预测第(m+1)个镜头。但是由于合成镜头过于困难,因此我们将问题转换为:从候选池中选择最好的第(m+1)个镜头。从而将该问题变成一个多选择问答问题。这种问题可以进一步改写成一个三路评分函数: s(q,a|C) s(q,a|C) 。其中q代表问题,a代表候选答案,而C是条件。对于“镜头预测”的问题,条件C为之前的m个镜头,a是候选镜头之一。那么回答问题的过程可以转换为找到s值最高的答案:
i ˆ =argmax i∈1⋯n s(q,a i |C) i^=argmaxi∈1⋯ns(q,ai|C)
我们将这个评分方程表示为一个建立在CNN上的LSTM网络,如图4所示。
图4 从电影中学习时序模型
在视觉模型得到的特征顶部,我们构建LSTM网络,每一个时间步对应电影序列中的一个镜头。在每一步,一个LSTM单元将之前状态和当前镜头的视觉特征都作为输入,然后产生一个256维的特征,表示为u。u将模型对所有镜头的理解进行编码。同时,每一个候选镜头用自己的1024维的视觉特征进行表示。
我们将u重复n次,然后将其与候选镜头表示连接起来,形成一个大小为n x 1280的矩阵。这个矩阵通过一系列1×1的卷积,压缩成一个长度为n的分数向量。最终,通过softmax层,这些分数能够转换成归一化的概率值,每个值代表一个选择。我们可以通过最大化正确答案的对数概率来训练网络。
实验结果
为了测试学习模型的能力,我们设置了两个benchmark任务,分别是标注分类和镜头预测,并且在Movie QA benchmark上测试我们的框架,以从多方视角来评价模型。
为了验证从预告片学习视觉模型的有效性,我们对比了不同设置下的模型。模型分别从电影和预告片的不同子集中学习。表2给出了用于训练的5种数据集合。
表2 不同训练集的持续时间和镜头数
我们将LSMTD数据集中的508部电影分为3部分,361部用于训练(“Movie 361”),41部用于验证(“Movie 41”),以及106部用于测试(“Movie 106”)。对于预告片,我们首先滤除在验证集和测试集中的电影预告片,剩下的组成了“Trailer 33K”,包含大约33000个预告片。从这整个预告片的训练集中,我们随机采样了2000和10000个预告片,构造了两个自己“Trailer 2K”和“Trailer 10K”。我们也构造了一个特殊的子集“Trailer 361”,其中的预告片都对应了361部电影。
标注分类
对于每一部电影,我们让模型预测流派和情节关键词。我们分别在5个训练子集上训练模型,获得了5种不同的模型。在测试过程中,我们尝试两种方法来预测标注:(1)分数平均:将所有采样镜头的预测进行平均得到最终预测。(2)特征+LSTM:在镜头特征表示上构建LSTM网络,然后训练LSTM网络来编码镜头序列。对输出进行平均来获得最终预测。
表3 类别标注实验结果。
可以看出在“Trailer 33K”上训练的模型预测准确率最高。随着预告片数量增加,视觉模型的质量也随之提高。并且,对比在电影上训练的模型和预告片上训练的模型可以看出,在预告片上进行训练能够获得更有效的视觉表征。
Movie Q&A数据集
我们也在Movie Q&A benchmark数据集上测试了视觉模型,来评价学习到的视觉表示与语义理解之间的关系。Movie Q&A数据集包含关于400电影的14944个问题,每个问题从5个答案中选择一个正确答案。图5给出了我们的Q&A模型。
图5 Q&A模型整体结构。
表4 电影问答结果
表4给出了在“Movie 361”和“Trailer 33K”的测试结果,并且和SSCB方法进行比较。可以看出,在预告片上学习到的特征的表现超越了从电影中学习到的特征。这也验证了我们的假设——在预告片上学习电影的视觉表示很有效。
镜头预测
给定m个镜头,我们期望时序模型能够预测第(m+1)个镜头。我们将该问题描述为一个多选择Q&A问题,问题是“给定m个镜头,哪个才是第(m+1)个镜头”。
我们基于LSMTD的508部电影构建了一个镜头预测的基准:(1)“In Movie”,干扰答案为同一部电影中的不同镜头,(2)“Cross Movie”,干扰答案为从所有508部电影中采样得到的镜头。
我们将我们的时序模型与一个简单的基线模型对比,该基线模型将给定镜头的特征平均,然后计算它与测试镜头的特征夹角距离。表5给出了实验结果。
表5 镜头预测准确率
从表中可以看出,我们的时序模型的表现远远超过了基线模型。这表明我们的模型捕捉到了时序结构,从而提升了对下一个镜头的预测准确度。我们也发现“Cross Movie”的准确率比“In Movie”更高,这是因为在同一个电影中的镜头比其他电影中的镜头更有混淆性。
可视化
最后,我们评价视觉模型是否捕捉到了语义概念和视觉观察之间的关系。我们选择了一些电影,并且期望找到与标注响应最高的镜头。
图6 镜头检索。左边是电影《珍珠港》中与“浪漫”和“战争”关键词对应的镜头。右边是《歌舞青春》 中与“运动”和“音乐”高度对应的镜头。
我们可以看到对检索标注响应较高的镜头之间具有较高的联系,说明视觉模型学到了视觉背后的语义信息。
图7 《泰坦尼克号》中与情节关键词的响应幅度图。这3幅图分别是在“Trailer 33K”上训练的视觉模型+LSTM,在“Trailer 33K”上训练的视觉模型,以及在“Movie 361”上训练的视觉模型。从对比中可以看出,从预告片中学习视觉信息的效果比从电影中学习的效果要好,并且我们可以通过自监督的LSTM重构时序结构。
图7给出了《泰坦尼克》的镜头对两个情节关键词“爱”和“反乌托邦”的响应。我们可以观察到在“Trailer 33K”上训练的模型产生了准确的响应,而在“Movie 361”上训练的模型不能捕捉到这些语义概念。
总结
这篇文章提出了一个有效的方法从电影中学习视觉模型。该模型从预告片中学习视觉表征,利用预告片具有鲜明特征的优势。然后从电影中通过自监督方法学习时序结构。我们搜集了一个大型电影和预告片数据集,包含34K个预告片和508部电影,并且基于此定义了两个任务:标注分类和镜头预测,来评价模型对电影的理解能力。我们也在电影问答任务上测试了我们的框架。这三个实验结果均显示了所提框架的有效性。
查看论文原文:
From Trailers to Storylines: An Efficient Way to Learn from Movies
转自 http://www.infoq.com/cn/articles/an-efficient-way-to-learn-from-movies