微软开源纯视觉屏幕解析工具,GUI时代真的来了!

科技   2024-10-28 19:42   山东  

前几天智谱AI发布了AutoGLM,让很多人直呼“王炸”、“头皮发麻”。


AutoGLM实际上是AI在手机上通过指令帮我们完成一系列操作,比如点外卖、订酒店、订机票等等。


最牛的其实不是完成了任务,因为这不是通过软件之间的接口对接实现的,而是直接模拟人点击操作了手机。



但这种操作,依我来看,也仅限于安卓。苹果是不可能给软件开这么高的权限,顶多是开个接口,会让用户实现这部分有接口的功能,但是朋友圈点赞评论暂时是想都别想了。


微软这几天开源的OmniParser有点意思,基于纯视觉的 GUI 代理的屏幕解析工具。


简单来说就是让AI分析屏幕,理解每一个按钮是操作什么功能的。


OmniParser是GUI中非常关键的一部分,只是理解了页面,如果再加上自动化,才是真正的实现GUI。


扫码加入AI交流群

获得更多技术支持和交流

(请注明自己的职业)



项目简介


OmniParser是一种全新的视觉解析工具,专为提升跨多个操作系统和应用程序的界面操作自动化而设计。该项目通过结构化解析用户界面截图,极大地增强了大型视觉语言模型GPT-4V的性能,使其能够更准确地在用户界面上定位和执行操作。


OmniParser整合了多个细化的模型,包括交互图标检测和图标功能描述,有效地识别和理解界面中的可交互元素。在没有额外输入信息的情况下,仅凭截图输入就显著超越了传统基线模型。



主要功能


1.可靠地识别用户界面内的可交互图标:


OMNIPARSER利用先进的视觉检测模型,从用户界面的截图中精确定位可交互元素(如按钮、图标、输入框等)。它能够自动识别并标注这些元素的位置和边界,确保系统可以准确了解哪些区域是可以进行操作的,从而为后续的自动化交互提供基础。


2.理解屏幕截图中各种元素的语义,并准确地将预期操作与屏幕上的相应区域关联起来:


OMNIPARSER不仅识别元素的视觉信息,还通过语义解析模型理解每个元素的功能和用途。它将这些语义信息与视觉检测结果相结合,准确关联预期操作和屏幕中的具体区域,从而提升自动化系统在执行任务时的准确性和有效性。


DEMO


1.OmniParser解析后的截图图像和本地语义示例。OmniParser的输入包括用户任务和UI截图,输出为:1)包含覆盖有边界框和编号的解析后截图图像,2)包含提取的文本和图标描述的本地语义信息。



2.可交互区域检测数据集示例。边界框基于从网页的DOM树中提取的可交互区域。



用途


简单了想了下,用途还真的挺多的。跨平台的自动化操作、智能辅助工具、无障碍辅助技术、自动化软件测试、企业工作流自动化、网页数据采集和个性化用户体验优化。


当然,开发者们的智慧肯定不止于此。再结合起来实际的一些需求,只讲一个实用案例,其他的你们可以在评论区聊聊。


“网络水军越来越智能,价格还被打下来了”。


项目链接


https://www.dongaigc.com/p/microsoft/OmniParser?a=omniparser


 关注「开源AI项目落地」公众号

与AI时代更靠近一点

 关注「AGI光年」公众号

获取每日最新资讯

 关注「向量光年」公众号

加速全行业向AI转变

开源AI项目落地
分享有价值的开源项目,并且致力于Ai项目的落地。
 最新文章