本篇笔记解析了论文《Abductive Ego-View Accident Video Understanding for Safe Driving Perception》的核心内容,重点介绍了自驾车事故视频理解领域的最新进展,包括 MM-AU 数据集的构建、基于 AdVersa-SD 框架的事故原因推理方法,以及如何利用视频与文本的多模态数据,推断和预测潜在事故。
主要贡献
- MM-AU数据集
用于多模态交通事故视频理解的大规模数据集, 包含11,727段现实中的自驾车事故视频 - AdVersa-SD框架
通过视频扩散(Video Diffusion)进行事故推理理解的框架,使用CLIP模型进行多模态对比学习,关注事故的因果关系 - OAVD方法
Object-Centric Accident Video Diffusion。一种基于物体中心的视频生成方法,通过保持视频背景的稳定性,重点学习事故因果区域,识别事故的关键原因和预防措施。
Abstract
- 通过对比交互损失,学习正常、事故将发生、事故发生帧与相应文本描述之间的关系。
1. Introduction
- 提出 MM-AU和AdVersa-SD的背景
- MM-AU数据集
8 种交通事故视频理解任务- 事故涉及的物体
- 事故类型
- 事故发生地点
- 事故发生时间
- 事故发生原因
- 关键的事故原因
- 如何预防事故
- 多模态事故视频扩散
- AdVersa-SD框架
特点:该框架通过推理型CLIP模型和视频扩散技术,尝试通过视频和文本的共现关系学习事故的因果链。
关键技术:- 使用对比交互损失函数学习事故原因和事故类别的语义共现关系。
- 通过物体中心扩散模型(OAVD),保持视频生成时背景的稳定,重点学习事故发生的因果区域。
2. Related Work
2.1. Ego-View Accident Video Understanding
- 事故检测:
- 目标:识别事故发生的具体空间区域和时间帧。
- 主要挑战:参与者(如车辆、行人等)的形状、位置和关系急剧变化,需要鲁棒的特征提取来应对这些复杂性。
- 常用方法:无监督学习,通过帧一致性、位置一致性和场景上下文一致性等模型,预测事故窗口。
- 事故预警:
- 目标:预测未来可能发生的事故,提供早期预警。
- 主要方法:基于时间一致性关联参与者轨迹,利用深度强化学习模型来提高预警的准确性和解释性。
- 事故分类:
- 问题:由于事故类别视频数据的局限性,基于自驾车视角的事故分类研究较少。
- 方法:例如ViT-TA模型通过注意力图来突出事故视频中的关键物体,增强分类的可靠性。
- 事故原因回答:
- 相关工作:通过因果识别模型来推断事故发生的原因,并通过问答系统提出预防建议。
- 挑战:当前的问答框架没有明确验证哪些关键动作或物体是导致事故的主要原因,缺乏双重验证机制。
2.2. Ego-View Accident Understanding Datasets
- 现有数据集概述:
- DAD数据集:第一个自驾车视角事故视频数据集,重点是视频片段中的事故结尾部分(最后10帧)。
- CCD数据集:与DAD类似,每个片段包含50帧。
- A3D和DoTA数据集:主要用于无监督学习的事故检测任务。
- DADA-2000数据集:除了视频,还标注了驾驶员的注意力信息,丰富了事故理解的维度。
- 虚拟事故视频的生成:
- 由于真实世界中很难获取大量的事故视频,研究人员利用模拟工具生成虚拟的事故视频。
- 例如,GTACrash、VIENA2、DeepAccident等数据集使用了虚拟事故视频或物体轨迹。
- 挑战:真实与模拟数据的领域差距是一个难点,因为模拟工具难以精确模拟现实中的事故过程。
- 现有数据集的局限性:
- 大多数数据集主要集中在视觉数据上,缺乏详细的文本描述。
- 只有少数数据集,如CTA,尝试探索更丰富的模态信息,但仍有提升空间。
3. MM-AU Dataset
- 数据集来源:
- MM-AU收集自多个公开的自驾车视角数据集,如CCD、A3D、DoTA和DADA-2000,还包括来自流媒体网站(YouTube、Bilibili和腾讯)的视频。
- 覆盖多种天气条件和场景,包含了2,195,613帧,成为迄今为止最大且最细粒度的自驾车视角多模态事故数据集。
- 标注过程:
- 事故窗口标注:通过平均确定事故的开始和结束时间,并将视频按时间窗口划分,这有助于模型的事故理解训练。
- 物体检测标注:为7类道路参与者提供了精细和粗略的物体边界框标注,使用YOLOX进行初步检测,手动调整获得准确标注。
- 文本描述标注:MM-AU特别标注了三类文本描述:事故原因、预防建议和事故类别。这些文本与视频中的事故窗口对齐,并设计了多选的事故原因回答(ArA)任务,帮助模型理解事故的原因。
- 任务设计与挑战:
- 事故原因回答任务:设计了一个问答框架,针对每个视频的事故原因提供问题和干扰项,要求模型识别正确答案。
- 复杂的标注与数据量:MM-AU提供了大量精细标注,这对事故原因分析和自动驾驶安全理解提出了更高的要求和可能性。
4. AdVersa-SD
4.1. Abductive CLIP
- 推理型CLIP的设计目的:
- 该模型旨在学习文本描述与视频片段之间的语义一致性,特别是在不同类型的文本-视频共现对中,如正常视频片段与反义文本、接近事故的视频片段与预防建议的配对。
- 虚拟共现对的生成:
- 通过反义动词的加入生成反义文本描述(例如将“发生事故”变为“未发生事故”),并通过帧反转生成接近事故的反序视频,作为虚拟共现对的一部分。
- 每个视频片段与文本描述随机匹配16帧进行训练,以增强模型的适应性。
- 对比交互损失(CILoss):
- 核心思想是通过计算正共现对和负共现对之间的相似性差异,来增强正确匹配的文本-视频对的嵌入一致性。
- 目标:最大化文本描述与正确视频帧的语义一致性,同时最小化它们与错误视频帧或描述的相似度。
- 优化过程:
- 模型通过最小化四种不同类型的对比交互损失(如正共现对和负共现对的不同组合)来完成优化,从而确保模型对不同文本-视频配对的准确学习。
正共现对和负共现对详解
正共现对(Pos. CoCPs)和负共现对(Neg. CoCPs)的组成
- 正共现对(Pos. CoCPs):
正共现对指的是视频片段和相应文本描述的正确配对。举例来说,如果我们有一段接近事故的视频片段 (Vr),其正确的文本描述是 “事故原因”(tr),那么这个配对 (Vr, tr) 就是一个正共现对。同样地,事故发生视频片段(Va)与 事故类别描述(ta)的配对也属于正共现对。
正共现对的目标是让模型学习到视频片段和它的正确描述之间的语义一致性。 - 负共现对(Neg. CoCPs):
负共现对指的是视频片段和错误文本描述的配对。为了生成负共现对,模型会将视频片段与不相关的描述进行配对。例如,将正常视频片段 (Vo) 与一个 错误的事故类别描述(反义的t̃a,比如“没有发生事故”)配对,或将接近事故的反转视频片段 (Ṽr) 与不相关的预防建议配对,都是负共现对。
负共现对的目标是让模型通过学习区分正确和错误的配对,从而减少视频片段与错误描述之间的相似性。
正共现对和负共现对在模型中的优化作用:
模型的优化目标是增强正共现对之间的相似性,同时减小负共现对之间的相似性。具体来说,模型通过对比交互损失(CILoss) 来实现这种优化。
- 正共现对的作用:
当输入正共现对(例如 (Vr, tr) 或 (Va, ta))时,模型会计算视频片段和文本描述之间的嵌入相似度(E(zv, zt),zv是视频片段的嵌入,zt是文本描述的嵌入)。模型的目标是最大化正共现对的相似度,让它们的嵌入尽可能接近。换句话说,模型会学习视频中的视觉信息(如事故的场景、物体动作)如何与文本描述的语义相符。 - 负共现对的作用:
对于负共现对(例如 (Vo, t̃a) 或 (Ṽr, tp)),模型也会计算视频和文本描述之间的相似度,但目标是最小化负共现对的相似度,即让错误配对的视频片段与描述的嵌入距离尽可能远。这样,模型就能学会识别并“排斥”错误的文本-视频配对。
如何通过正共现对和负共现对优化模型:
通过同时输入正共现对和负共现对,模型会在训练过程中进行对比学习,目标是:
- 增加正共现对的相似度:通过学习正确的视频片段与其文本描述的特征,使它们的嵌入表示更加接近。
- 减少负共现对的相似度:通过对比负共现对,使错误的文本描述与视频片段的嵌入之间保持较大距离,从而区分出哪些是错误的配对。
4.2. Extension to Accident Video Diffusion
- 事故视频扩散的目标:
- 通过视频扩散模型显式地探索交通事故的因果关系。因为事故往往由道路参与者的不规则运动导致,模型需要具备物体级别的表示能力,以实现细致的事故分析。
- 以物体为中心的事故视频扩散模型(OAVD):
- OAVD基于潜在扩散模型(LDM),通过在视频帧的潜在表示上添加噪声,再进行去噪生成事故视频。
- 其核心是3D U-Net,包括空间、时间和文本-视频的注意力机制,确保模型能够捕捉到事故视频中的关键物体位置和时间序列信息。
- 遮罩视频帧扩散:
- 通过前向添加噪声和反向去噪,模型在视频生成过程中固定背景细节,重点处理物体区域,从而生成以物体为中心的事故视频。
- 这个过程包括均方误差和遮罩重建的联合损失,用于优化视频的生成质量。
- 门控边界框表示(Gated Bbox Representation):
- 边界框(Bbox)与文本描述协同工作,增强对因果物体区域的学习。通过门控自注意力机制,模型能够明确分析特定物体在事故中的角色。
- 推理阶段:
- 在推理阶段,输入文本和视频共现对(Co-CPs),通过3D U-Net和去噪扩散模型生成新的事故视频片段。
5. 实验
5.1 实验细节
- OD任务:
- 使用了11种最先进的物体检测器,重点评估物体边界框检测的精度和召回率。
- 通过不同的版本(V1-Train和V2-Train)来比较事故帧和非事故帧的检测效果。
- ArA任务:
- 基于多选问题的问答任务,问题是“事故原因是什么”,通过准确率来评估模型的表现。
- 推理型视频扩散任务:
- 通过输入物体边界框和文本描述,评估模型生成事故视频的能力。
- 使用FVD评估视频质量,CLIP分数衡量生成的视频与文本描述的对齐程度。