在本篇博客中,我将记录自己使用 MS-Swift 框架微调 mPLUG-Owl3-7B 模型的全过程。
mPLUG官方提供的微调文档并不可行,存在问题。
在多模态大模型的发展中,视觉语言模型(LVLMs)显示了强大的视觉理解能力,但也面临着严重的Hallucination,特别是在多对象识别任务中。本篇笔记基于《Multi-Object Hallucination in Vision-Language Models》,深入探讨了LVLMs在同时处理多个对象时产生的幻觉现象及其原因。本篇笔记介绍了论文提出的“基于识别的对象探测评估”(ROPE)方法,这是一种全新的评估协议,用于精确分析模型在多对象场景下的表现。此外,我还总结了作者关于数据分布、模型特性等如何影响幻觉行为的关键发现。通过这篇笔记,希望能为多模态大模型的幻觉问题提供启示,为未来的改进方向带来更多思考。
在这篇笔记中,我详细记录了关于论文《ShareGPT4V: Improving Large Multi-Modal Models with Better Captions》的阅读心得。该论文通过引入一个创新性的高质量图像描述数据集——ShareGPT4V,在大规模多模态模型中实现了显著性能提升。ShareGPT4V数据集包含超过百万条详细且多样化的图像描述,与现有的数据集相比,不仅增强了模型的视觉-文本模态对齐效果,还显著提高了在多个基准测试中的表现。
在多模态学习和图像理解领域,传统的基准测试多聚焦于单图像场景,忽略了多图像信息整合的复杂性。《MUIRBENCH: A Comprehensive Benchmark for Robust Multi-image Understanding》一文引入了MUIRBENCH,一个专为评估多图像理解能力而设计的全新基准,涵盖了丰富的图像关系和任务类别。本篇笔记将深入解析MUIRBENCH如何推动多模态大模型在多图像推理上的进展,并揭示现有模型的不足之处与未来改进的方向。
本篇阅读笔记梳理了《Img-Diff: Contrastive Data Synthesis for Multimodal Large Language Models》这篇论文的核心内容。论文提出了一个名为 Img-Diff 的数据集,专注于通过生成具有“物体替换”特征的相似图像对,来提升多模态大模型在细微图像差异识别任务中的表现。本篇笔记详细记录了论文中的数据集构建方法、对比学习的创新性应用,以及 Img-Diff 在视觉问答和图像差异识别基准测试中的显著提升效果。
这篇文章的主要贡献是介绍了LLaVA-NeXT-Interleave模型,该模型旨在解决多模态模型在多图像(multi-image)、多帧(视频)、3D场景和单图像任务上的通用适应性。其核心创新在于提出一种交错(interleave)数据格式,使模型能够在多种视觉任务间灵活适应,并实现跨任务的迁移能力。
本篇笔记解析了论文《Abductive Ego-View Accident Video Understanding for Safe Driving Perception》的核心内容,重点介绍了自驾车事故视频理解领域的最新进展,包括 MM-AU 数据集的构建、基于 AdVersa-SD 框架的事故原因推理方法,以及如何利用视频与文本的多模态数据,推断和预测潜在事故。
tag:
缺失模块。
1、请确保node版本大于6.2
2、在博客根目录(注意不是yilia根目录)执行以下命令:
npm i hexo-generator-json-content --save
3、在根目录_config.yml里添加配置:
jsonContent: meta: false pages: false posts: title: true date: true path: true text: false raw: false content: false slug: false updated: false comments: false link: false permalink: false excerpt: false categories: false tags: true