为了解决上述问题,本文提出了一种免训练的即插即用的通用架构“啄木鸟(Woodpecker)”,通过修正的方式解决MLLM输出幻觉的问题。该框架包括五个主要步骤: 关键概念提取、问题构造、视觉知识检验、视觉断言生成以及幻觉修正。
关键概念提取:关键概念指的是MLLM的输出中最可能存在幻觉的存在性目标,例如上图描述中的“自行车;垃圾桶;人”。我们可以Prompt大语言模型来提取出这些关键概念,这些关键概念是后续步骤进行的基础。
问题构造:围绕着前一步提取出的关键概念,Prompt大语言模型来提出一些有助于检验图片描述真伪的问题,如“图中有几辆自行车?”、“垃圾桶边上的是什么?”等等。
视觉知识检验:使用视觉基础模型对提出的问题进行检验,获得与图片以及描述文本相关的信息。例如,我们可以利用GroundingDINO来进行目标检测,确定关键目标是否存在以及关键目标的数量。这里我们认为像GroundingDINO这类视觉基础模型对图片的感知能力比MLLM本身的感知能力更强。对于目标颜色等这类属性问题,我们可以利用BLIP-2来进行回答。BLIP-2这类传统VQA模型输出答案的长度有限,幻觉问题也更少。
视觉断言生成:基于前两步中获得的问题以及对应的视觉信息,合成结构化的“视觉断言”。这些视觉断言可以看做与原有MLLM的回答以及输入图片相关的视觉知识库。
幻觉修正:基于前面得到的,使用大语言模型对MLLM的文本输出进行逐一修正,并提供目标对应的检测框信息作为视觉检验的参照。
本文的创新点如下:
(1) 提出首个基于修正策略缓解幻觉问题的方法。
(2) 提出的框架每个步骤都是透明的,提供了更好的可解释性。
(3) 全面检验了提出方法的有效性,实验结果表明幻觉修正这一途径的潜力。
为了直观地衡量修正表现,更直接的方式是使用开放评测。不同于以往将图片转译后送入纯文本GPT-4的做法,文章利用OpenAI开放的视觉接口,提出使用GPT-4(Vision)对修正前后的图片描述直接对下列两个维度进行打分:
准确度:模型的答复相对于图片内容是否准确;
详细程度:模型答复的细节丰富度。
结果表明经过Woodpecker修正后图片描述的准确性有一定的提升,这说明该框架可以有效修正描述中幻视的部分。另一方面,Woodpecker修正后引入的定位信息丰富了文本描述,提供了进一步的位置信息,从而提升了细节丰富度。GPT-4V辅助的评测样例如下图所示:
为了更细粒度地衡量性能,论文中测试了Woodpecker在面对目标幻觉时的修正能力,在POPE验证集的实验结果如下表所示:
结果表明在不同的MLLM上应用Woodpecker修正后,均有不同程度的提升。在随机设定下,Woodpecker给MiniGPT-4和mPLUG-Owl和在准确率指标上分别带来了30.66%和24.33%的提升。
研究者还应用更全面的验证集MME,进一步测试Woodpecker在面对属性幻觉时的修正能力,结果如下表所示:
从表中可见Woodpecker不仅在应对目标幻觉时有效,在修正颜色等属性幻觉时也具有出色的表现。LLaVA的颜色得分从78.33分大幅提升到155分!经过Woodpecker修正后,四个基线模型在四个测试子集上的总分均超过500分,在总体感知能力上获得了显著提升。