鲁棒的多模态大语言模型对抗模态冲突研究 Robust Multimodal Large Language Models Against Modality Conflict
Key Points
本文发现多模态大语言模型存在模态冲突导致的幻觉问题,提出三种解决方法并在构建的数据集上验证效果。
Plain Language Summary
这篇论文研究的是当图片和文字信息不一致时,AI模型容易产生胡说八道的问题。作者造了个测试集,试了三种解决办法,发现用强化学习训练效果最好。
Detailed Analysis
当前多模态大语言模型在视觉-语言任务中表现出色,但在实际应用中容易产生与输入不符的幻觉回答。现有研究主要关注模型输出与输入的矛盾,而忽视了不同模态输入之间本身存在的冲突。这种模态冲突会使模型陷入两难境地,直接导致幻觉现象。本文旨在系统研究这一被忽视的问题,并提出有效的解决方案。
研究首先正式定义了模态冲突的概念,并构建了多模态冲突数据集(MMMC)来模拟视觉-语言任务中的这种现象。针对模态冲突导致的幻觉问题,提出了三种解决方案:1)基于提示工程的快速调整方法;2)监督微调方法;3)强化学习方法。其中强化学习方法通过设计专门的奖励机制来优化模型在冲突情况下的表现。
在MMMC数据集上的大量实验表明:强化学习方法在缓解模态冲突导致的幻觉方面表现最佳,准确率提升15%以上;监督微调方法也展现出稳定且具有前景的性能,其泛化能力较强;而提示工程方法虽然简单易用,但效果相对有限。所有方法都显著优于基线模型。
本研究首次系统揭示了多模态输入冲突导致的模型幻觉问题,不仅构建了专门的数据集,还提出了有效的解决方案。强化学习方法的表现验证了通过针对性训练可以显著提升模型鲁棒性。这项工作为理解多模态大语言模型的局限性提供了新视角,对开发更可靠的AI系统具有重要指导意义。