重磅!字节发布UI-TARS大模型,三句话搞定电脑操作!碾压GPT-4!

旅行   2025-01-23 00:56   北京  

又一个能直接操控电脑的AI来了!

字节刚刚发布了UI-TARS,这是一个专门用来操控电脑界面的视觉语言模型。它不只是看懂屏幕那么简单,而是能像人一样思考、推理,并直接操作鼠标和键盘

最强的是,在众多基准测试中,它都完胜GPT-4和Claude等对手。

在VisualWebBench上,72B版本达到了82.8%的准确率,超过了GPT-4的78.5%和Claude的78.2%。

这个模型最厉害的地方在于它的「一体化设计」。

不像其他工具那样需要复杂的配置和规则,UI-TARS把感知、推理和行动能力都整合在一个模型里,实现了真正的「端到端自动化」。

它能干什么?

简单来说:

  • 智能理解界面:不管是文字、图片还是交互元素,都能实时识别和响应

  • 统一行动空间:支持点击、长按、输入、滚动、打开应用等各种操作

  • 多级思维模式:结合快速直觉和深度思考,能处理复杂任务

  • 记忆功能:短期记忆保存当前任务上下文,长期记忆积累历史经验

字节同时发布了三个版本:2B、7B和72B参数规模的模型。

通过SFT(有监督微调)和DPO(直接偏好优化) 训练,让模型在10多个GUI代理基准测试中都达到了最好成绩。

更棒的是,这个模型还开源了桌面版应用

只要简单下载安装,就能用自然语言控制你的电脑。比如「发送一条内容为『hello world』的推文」,或者「查看旧金山的天气」,通通都能自动完成。

UI-TARS的诞生,让我们离「AI助手真正理解并操作计算机」的目标又近了一大步。

它不仅能看懂界面,还能像人类一样思考和行动,这正是未来AI助手的发展方向。

快来试试让AI帮你操作电脑吧!

相关链接

  • 项目代码:https://github.com/bytedance/UI-TARS
  • 论文详情:https://huggingface.co/papers/2501.12326
  • 模型地址:https://huggingface.co/bytedance-research/UI-TARS-72B-DPO
  • 桌面应用:https://github.com/bytedance/UI-TARS-desktop

👇

👇

👇

👇

本文同步自知识星球《AGI Hunt》

星球实时采集和监控推特、油管、discord、电报等平台的热点AI 内容,并基于数个资讯处理的 AI agent 挑选、审核、翻译、总结到星球中。

  • 每天约监控6000 条消息,可节省约800+ 小时的阅读成本;

  • 每天挖掘出10+ 热门的/新的 github 开源 AI 项目;

  • 每天转译、点评 10+ 热门 arxiv AI 前沿论文。

星球非免费。定价99元/年,0.27元/天。(每+100人,+20元。元老福利~)

  • 一是运行有成本,我希望它能自我闭环,这样才能长期稳定运转;

  • 二是对人的挑选,鱼龙混杂不是我想要的,希望找到关注和热爱 AI 的人。

欢迎你的加入!

AGI Hunt
关注AGI 的沿途风景!
 最新文章