VSA:开源版SearchGPT来了!

科技   2024-11-04 13:05   上海  

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【Mamba/多模态/扩散】交流群

添加微信号:CVer2233,小助手会拉你进群!

扫描下方二维码,加入CVer学术星球可以获得最新顶会/顶刊上的论文ideaCV从入门到精通资料,及最前沿应用!发论文/搞科研/涨薪,强烈推荐!


论文:https://arxiv.org/abs/2410.21220
主页:https://cnzzx.github.io/VSA/
代码:https://github.com/cnzzx/VSA

0 太长不看版

OpenAI刚刚推出了SearchGPT,以大模型为基座,检索互联网知识。我们简易实现了开源版本“OpenSearchGPT”——Vision Search Assistant。模型设计简单,只要两张3090就可复现!可以预见2025年会有更多开源版AI搜索模型涌现,快来关注和Follow我们的工作,加入这股新的浪潮吧。代码和模型已在Github上开源,诚邀大家试用和关注。

我们开发的Vision Search Assistant(VSA)以视觉语言模型(VLM)为基础,巧妙地将Web搜索能力融入其中,让VLM内部的知识得到实时更新,使其更加灵活和智能。只需要两张3090,就能试验你的Idea,说不定就能取得出色的效果呢?

目前,我们的VSA已经针对通用图像进行了实验,可视化和量化结果良好。但不同类别的图像各具特色,还可以针对不同种类的图像(比如表格、医学等)构建出更为特定的VSA应用。更令人振奋的是,VSA的潜力并不仅限于图像处理。还有更广阔的可探索空间,比如视频、3D模型和声音等领域,期待能将多模态研究推向新的高度。

1 简介


大型语言模型(LLM)的出现让人类可以利用模型的强大零样本问答能力来获取陌生知识。在此基础上,检索增强生成(RAG)等技术进一步提高了LLM在知识密集型、开放域问答任务中的表现。然而,VLM在面对未见过的图像和新概念时,它们往往不能利用好来自互联网的最新多模态知识。现有的 Web Agent主要依赖于对用户问题的检索,并总结检索返回的HTML文本内容,因此它们在处理涉及图像或其他视觉内容的任务时存在明显的局限性,即视觉信息被忽视或处理不充分

为了解决这一问题,我们提出了Vision Search Assistant。Vision Search Assistant以VLM模型为基础,能够回答有关未见过的图像或新概念的问题,其行为类似人类在互联网上进行搜索并解决问题的过程,包括:

  • 理解查询;
  • 决定应该关注图像中的哪些对象并推断对象之间的相关性;
  • 逐对象生成查询文本;
  • 根据查询文本和推断出的相关性分析搜索引擎返回的内容;
  • 判断获得的视觉和文本信息是否足以生成答案,或者它应该迭代和改进上述过程;
  • 结合检索结果,回答用户的问题。

2 方法介绍

2.1 视觉内容描述

视觉内容描述模块被用来提取图像中对象级的描述和对象之间的相关性,其流程如下图所示。我们首先利用开放域的检测模型来获取值得关注的图像区域。紧接着对每一个检测到的区域,使用VLM获取对象级的文本描述。最后,为了更全面地表达视觉内容,我们利用VLM进一步关联不同的视觉区域以获得不同对象的更精确描述。


具体地,令用户输入图片为,用户的问题为。我们通过一个开放域的检测模型获取个感兴趣的区域:


然后利用预训练的VLM模型分别描述这个区域的视觉内容:


为了让不同区域的信息关联起来,提高描述的精度,我们将区域与其它区域的描述拼接,让VLM对区域的描述进行矫正:


至此,我们从用户输入获得了与之高度相关的个视觉区域的精确描述

2.2 Web知识搜索:“搜索链”

Web知识搜索的核心是名为“搜索链”的迭代算法,旨在获取相关视觉描述的综合性的Web知识,其流程如下图所示。在Vision Search Assistant中,我们利用LLM来生成与答案相关的子问题,这一LLM被称为“Planing Agent”。搜索引擎返回的页面会被同样的LLM分析、选择和总结,被称为“Searching Agent”。通过这种方式,我们可以获得与视觉内容相关的Web知识。


具体地,由于搜索是对每个区域的视觉内容描述分别进行的,因此我们以区域为例,并省略这个上标,即。该模块中我们使用同一个LLM模型构建决策智能体(Planning Agent)和搜索智能体(Searching Agent)。决策智能体控制整个搜索链的流程,搜索智能体与搜索引擎交互,筛选、总结网页信息。

以第一轮迭代为例,决策智能体将问题拆分成个搜索子问题并交由搜索智能体处理。搜索智能体会将每一个交付搜索引擎,得到页面集合。搜索引擎会阅读页面摘要并选择与问题最相关的页面集合(下标集为),具体方法如下:


对于这些被选中的页面,搜索智能体会详细阅读其内容,并进行总结:


最终,所有个子问题的总结输送给决策智能体,决策智能体总结得到第一轮迭代后的Web知识:


重复进行上述迭代过程次,或是决策智能体认为当前的Web知识已足矣回应原问题时,搜索链停止,得到最终的Web知识

2.3 协同生成

最终,我们基于原始图像、视觉描述、Web知识,利用VLM回答用户的问题,其流程如下图所示。具体而言,最终的回答为:



3 实验

3.1 开放集问答可视化对比

下图中我们比较了新事件(前两行)和新图像(后两行)的开放集问答结果。我们将Vision Search Assistant和Qwen2-VL-72B以及InternVL2-76B进行了比较。不难发现,Vision Search Assistant 擅长生成更新、更准确、更详细的结果。例如,在第一个样例中,Vision Search Assistant对2024年Tesla公司的情况进行了总结,而Qwen2-VL局限于2023年的信息,InternVL2明确表示无法提供该公司的实时情况。


3.2 开放集问答评估

在开放集问答评估中,我们通过10位人类专家进行了比较评估,评估内容涉及7月15日至9月25日期间从新闻中收集的100个图文对,涵盖新颖图像和事件的所有领域。人类专家从真实性、相关性和支持性三个关键维度进行了评估。

如下图所示,与Perplexity.ai Pro和GPT-4-Web相比,Vision Search Assistant在所有三个维度上都表现出色:

  • 事实性:Vision Search Assistant得分为68%,优于Perplexity.ai Pro(14%)和 GPT-4-Web(18%)。这一显著领先表明,Vision Search Assistant 始终提供更准确、更基于事实的答案。
  • 相关性:Vision Search Assistant 的相关性得分为80%,在提供高度相关的答案方面表现出显著优势。相比之下,Perplexity.ai Pro和GPT-4-Web分别达到11%和9%,显示出在保持网络搜索时效性方面存在显著差距。
  • 支持性:Vision Search Assistant在为其响应提供充分证据和理由方面也优于其他模型,支持性得分为63%。Perplexity.ai Pro和GPT-4-Web分别以19%和24%的得分落后。这些结果凸显了Vision Search Assistant 在开放集任务中的卓越表现,特别是在提供全面、相关且得到良好支持的答案方面,使其成为处理新图像和事件的有效方法。


封闭集问答评估

我们在LLaVA W [1]基准进行了闭集评估,其中包含60个问题,涉及VLM在野外的对话、细节和推理能力。我们使用GPT-4o(0806)模型进行评估。我们使用LLaVA-1.6-7B作为基线模型,该模型在两种模式下进行了评估:标准模式和使用简单Google图片搜索组件的“朴素搜索”模式。此外,我们还评估了LLaVA-1.6-7B的增强版本,该版本配备搜索链模块。

如下表所示,Vision Search Assistant在所有类别中均表现出最强的性能。具体而言,它在对话类别中获得了73.3%的得分,与LLaVA模型相比略有提升,提升幅度为+0.4%。在细节类别中,Vision Search Assistant以79.3%的得分脱颖而出,比表现最好的LLaVA变体高出 +2.8%。在推理方面,我们的方法比表现最佳的LLaVA模型高出+10.8%。这表明Vision Search Assistant对视觉和文本搜索的高级集成极大地增强了其推理能力。Vision Search Assistant的整体性能为84.9%,比基线模型提高+6.4%。这表明Vision Search Assistant在对话和推理任务中都表现出色,使其在野外问答能力方面具有明显优势。


参考文献:

[1] Haotian Liu, Chunyuan Li, Yuheng Li, and Yong Jae Lee. Improved baselines with visual instruction tuning. arXiv preprint arXiv:2310.03744, 2023.

何恺明在MIT授课的课件PPT下载

在CVer公众号后台回复:何恺明,即可下载本课程的所有566页课件PPT!赶紧学起来!

ECCV 2024 论文和代码下载

在CVer公众号后台回复:ECCV2024,即可下载ECCV 2024论文和代码开源的论文合集

CVPR 2024 论文和代码下载

在CVer公众号后台回复:CVPR2024,即可下载CVPR 2024论文和代码开源的论文合集


Mamba、多模态和扩散模型交流群成立

扫描下方二维码,或者添加微信号:CVer2233,即可添加CVer小助手微信,便可申请加入CVer-Mamba、多模态学习或者扩散模型微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF、3DGS、Mamba等。


一定要备注:研究方向+地点+学校/公司+昵称(如Mamba、多模态学习或者扩散模型+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer2233,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集上万人!


扫码加入星球学习

▲点击上方卡片,关注CVer公众号

整理不易,请赞和在看

CVer
一个专注于计算机视觉方向的公众号。分享计算机视觉、深度学习、人工智能、自动驾驶和高校等高质量内容。
 最新文章