只要两张3090就可复现!Vision Search Assistant开源:VLM与Web搜索能力的巧妙结合

科技   2024-11-04 22:01   广东  
↑ 点击蓝字 关注极市平台
作者丨张至鑫
编辑丨极市平台

极市导读

 

本文介绍了一个名为Vision Search Assistant(VSA)的开源项目,它是一个基于视觉语言模型(VLM)的系统,能够将Web搜索能力融入VLM中,实现对未见图像或新概念的实时更新和智能问答。VSA通过理解查询、分析图像内容、生成查询文本、检索Web知识,并结合检索结果回答用户问题,展现了在开放集问答任务中的卓越性能,特别是在提供全面、相关且得到良好支持的答案方面。 >>加入极市CV技术交流群,走在计算机视觉的最前沿

论文:https://arxiv.org/abs/2410.21220

主页:https://cnzzx.github.io/VSA/

代码:https://github.com/cnzzx/VSA

0 太长不看版

OpenAI刚刚推出了SearchGPT,以大模型为基座,检索互联网知识。就在此时,我们也推出了开源版的“OpenSearchGPT”——Vision Search Assistant。模型设计简单,只要两张3090就可复现!可以预见2025年会有更多开源版AI搜索模型涌现,快来关注和Follow我们的工作,加入这股新的浪潮吧。代码和模型已在Github上开源(https://github.com/cnzzx/VSA),诚邀大家试用和关注。

我们开发的Vision Search Assistant(VSA)以视觉语言模型(VLM)为基础,巧妙地将Web搜索能力融入其中,让VLM内部的知识得到实时更新,使其更加灵活和智能。只需要两张3090,就能试验你的Idea,说不定就能取得出色的效果呢?

目前,我们的VSA已经针对通用图像进行了实验,可视化和量化结果良好。但不同类别的图像各具特色,还可以针对不同种类的图像(比如表格、医学等)构建出更为特定的VSA应用。更令人振奋的是,VSA的潜力并不仅限于图像处理。还有更广阔的可探索空间,比如视频、3D模型和声音等领域,期待能将多模态研究推向新的高度。

1 简介

大型语言模型(LLM)的出现让人类可以利用模型的强大零样本问答能力来获取陌生知识。在此基础上,检索增强生成(RAG)等技术进一步提高了LLM在知识密集型、开放域问答任务中的表现。然而,VLM在面对未见过的图像和新概念时,它们往往不能利用好来自互联网的最新多模态知识。现有的 Web Agent主要依赖于对用户问题的检索,并总结检索返回的HTML文本内容,因此它们在处理涉及图像或其他视觉内容的任务时存在明显的局限性,即视觉信息被忽视或处理不充分

为了解决这一问题,我们提出了Vision Search Assistant。Vision Search Assistant以VLM模型为基础,能够回答有关未见过的图像或新概念的问题,其行为类似人类在互联网上进行搜索并解决问题的过程,包括:
(1)理解查询;
(2)决定应该关注图像中的哪些对象并推断对象之间的相关性;
(3)逐对象生成查询文本;
(4)根据查询文本和推断出的相关性分析搜索引擎返回的内容;
(5)判断获得的视觉和文本信息是否足以生成答案,或者它应该迭代和改进上述过程;
(6)结合检索结果,回答用户的问题。

2 方法介绍

2.1 视觉内容描述

视觉内容描述模块被用来提取图像中对象级的描述和对象之间的相关性,其流程如下图所示。我们首先利用开放域的检测模型来获取值得关注的图像区域。紧接着对每一个检测到的区域,使用VLM获取对象级的文本描述。最后,为了更全面地表达视觉内容,我们利用VLM进一步关联不同的视觉区域以获得不同对象的更精确描述。

具体地, 令用户输入图片为 , 用户的问题为 。我们通过一个开放域的检测模型 获取 个感兴趣的区域:

然后利用预训练的 VLM 模型 分别描述这 个区域的视觉内容:

为了让不同区域的信息关联起来,提高描述的精度,我们将区域i与其它区域j≠i的描述拼接,让VLM对区域的描述进行矫正:

至此,我们从用户输入获得了与之高度相关的N个视觉区域的精确描述

2.2 Web知识搜索:“搜索链”

Web知识搜索的核心是名为“搜索链”的迭代算法,旨在获取相关视觉描述的综合性的Web知识,其流程如下图所示。在Vision Search Assistant中,我们利用LLM来生成与答案相关的子问题,这一LLM被称为“Planing Agent”。搜索引擎返回的页面会被同样的LLM分析、选择和总结,被称为“Searching Agent”。通过这种方式,我们可以获得与视觉内容相关的Web知识。

具体地,由于搜索是对每个区域的视觉内容描述分别进行的,因此我们以区域 为例,并省略这个上标,即 。该模块中我们使用同一个 LLM 模型 构建决策智能体(Planning Agent)和搜索智能体(Searching Agent)。决策智能体控制整个搜索链的流程,搜索智能体与搜索引擎交互,篮选、总结网页信息。

以第一轮迭代为例,决策智能体将问题 拆分成 个搜索子问题 并交由搜索智能体处理。搜索智能体会将每一个 交付搜索引擎,得到页面集合 。搜索智能体会阅读页面摘要并选择与问题最相关的页面集合(下标集为 ),具体方法如下:

对于这些被选中的页面,搜索智能体会详细阅读其内容,并进行总结:

最终,所有个子问题的总结输送给决策智能体,决策智能体总结得到第一轮迭代后的Web知识:

重复进行上述迭代过程K次,或是直到决策智能体认为当前的Web知识已足够回应原问题时,搜索链停止,得到最终的Web知识

2.3 协同生成

最终,我们基于原始图像 、视觉描述 、Web 知识 ,利用 VLM 回答用户的问题 , 其流程如下图所示。具体而言, 最终的回答 为:

3 实验

3.1 开放集问答可视化对比

下图中我们比较了新事件(前两行)和新图像(后两行)的开放集问答结果。我们将Vision Search Assistant和Qwen2-VL-72B以及InternVL2-76B进行了比较。不难发现,Vision Search Assistant 擅长生成更新、更准确、更详细的结果。例如,在第一个样例中,Vision Search Assistant对2024年Tesla公司的情况进行了总结,而Qwen2-VL局限于2023年的信息,InternVL2明确表示无法提供该公司的实时情况。

3.2 开放集问答评估

在开放集问答评估中,我们通过10位人类专家进行了比较评估,评估内容涉及7月15日至9月25日期间从新闻中收集的100个图文对,涵盖新颖图像和事件的所有领域。人类专家从真实性、相关性和支持性三个关键维度进行了评估。

如下图所示,与Perplexity.ai Pro和GPT-4-Web相比,Vision Search Assistant在所有三个维度上都表现出色:

(1)事实性:Vision Search Assistant得分为68%,优于Perplexity.ai Pro(14%)和 GPT-4-Web(18%)。这一显著领先表明,Vision Search Assistant 始终提供更准确、更基于事实的答案。

(2)相关性:Vision Search Assistant 的相关性得分为80%,在提供高度相关的答案方面表现出显著优势。相比之下,Perplexity.ai Pro和GPT-4-Web分别达到11%和9%,显示出在保持网络搜索时效性方面存在显著差距。

(3)支持性:Vision Search Assistant在为其响应提供充分证据和理由方面也优于其他模型,支持性得分为63%。Perplexity.ai Pro和GPT-4-Web分别以19%和24%的得分落后。这些结果凸显了Vision Search Assistant 在开放集任务中的卓越表现,特别是在提供全面、相关且得到良好支持的答案方面,使其成为处理新图像和事件的有效方法。

3.3 封闭集问答评估

我们在LLaVA W [1]基准进行了闭集评估,其中包含60个问题,涉及VLM在野外的对话、细节和推理能力。我们使用GPT-4o(0806)模型进行评估。我们使用LLaVA-1.6-7B作为基线模型,该模型在两种模式下进行了评估:标准模式和使用简单Google图片搜索组件的“朴素搜索”模式。此外,我们还评估了LLaVA-1.6-7B的增强版本,该版本配备搜索链模块。

如下表所示,Vision Search Assistant在所有类别中均表现出最强的性能。具体而言,它在对话类别中获得了73.3%的得分,与LLaVA模型相比略有提升,提升幅度为+0.4%。在细节类别中,Vision Search Assistant以79.3%的得分脱颖而出,比表现最好的LLaVA变体高出 +2.8%。在推理方面,我们的方法比表现最佳的LLaVA模型高出+10.8%。这表明Vision Search Assistant对视觉和文本搜索的高级集成极大地增强了其推理能力。Vision Search Assistant的整体性能为84.9%,比基线模型提高+6.4%。这表明Vision Search Assistant在对话和推理任务中都表现出色,使其在野外问答能力方面具有明显优势。

参考文献:[1] Haotian Liu, Chunyuan Li, Yuheng Li, and Yong Jae Lee. Improved baselines with visual instruction tuning. arXiv preprint arXiv:2310.03744, 2023.


公众号后台回复“数据集”获取100+深度学习各方向资源整理

极市干货

技术专栏:多模态大模型超详细解读专栏搞懂Tranformer系列大视觉模型 (LVM) 解读扩散模型系列极市直播
技术综述:小目标检测那点事大模型面试八股含答案万字长文!人体姿态估计(HPE)入门教程

点击阅读原文进入CV社区

收获更多技术干货

极市平台
为计算机视觉开发者提供全流程算法开发训练平台,以及大咖技术分享、社区交流、竞赛实践等丰富的内容与服务。
 最新文章