|
2025年,GUI Agent(Graphical User Interface Agent,图形界面智能体)已成为AI领域最火爆的方向之一。它让大模型不再只是“聊天机器人”,而是能真正“看懂”屏幕、理解界面、模拟人类操作(如点击、滑动、输入)的Agent。标志性事件是字节跳动推出的豆包手机(与努比亚合作,基于Z70 Ultra系列工程机),首发3万台瞬间售罄,二手价翻倍。这款“全球首款系统级AI手机”将GUI Agent深度嵌入操作系统,实现跨App自动化任务,如一句话规划旅行、比价下单、点外卖等,彻底颠覆了手机交互范式。
豆包手机的核心,正是字节的UI-TARS系列技术——纯视觉端到端GUI Agent,已迭代到UI-TARS-2,支持从GUI操作到代码执行、API调用的混合动作流。
GUI Agent是什么?为什么2025年爆发?
传统自动化(如RPA)依赖脚本,脆弱且不灵活。多模态大模型(VLM)兴起后,GUI Agent通过“截图输入 + 推理 + 动作输出”实现通用自动化。主要挑战:屏幕感知、动作grounding、长序列规划、跨平台兼容。
典型架构(如图所示)包括感知(屏幕解析)、规划(任务分解)、执行(模拟点击/输入)、反思(错误纠正)模块。

2025年,强化学习(RL)、多Agent协作、纯视觉端到端成为主流趋势,开源模型层出不穷,推动从桌面/手机到多设备编排。
三大代表性工作对比
|
阿里 Mobile-Agent-v3 / GUI-Owl |
|
|
| 核心定位 |
|
|
系统级API + 多设备编排(Windows为主) |
| 输入模态 |
|
|
混合:UI树 + 视觉(OmniParser) + API |
| 模型规模 |
GUI-Owl 7B~32B(Qwen2.5-VL基座) |
|
|
| 动作空间 |
|
|
|
| 规划机制 |
多Agent(Manager/Worker/Reflector/Notetaker) + 反思 + RAG |
System-2推理(Thought前置) + 多轮RL |
HostAgent + AppAgent + 动态DAG(Galaxy) |
| 亮点进展 |
2025年开源RL调优版,在OSWorld/AndroidWorld SOTA |
|
|
| 开源程度 |
模型/代码开源(GitHub: X-PLUG/MobileAgent) |
|
MIT许可全开源(GitHub: microsoft/UFO) |
阿里 Mobile-Agent-v3 & GUI-Owl:多Agent“流水线”协作
阿里路线强调多Agent分工:GUI-Owl作为基础VLM,统一感知-推理-执行;Mobile-Agent-v3则实例化多个角色Agent协同长任务。


2025年更新:支持云端虚拟环境自演化数据飞轮,RL调优后在多基准领先。
字节 UI-TARS:纯视觉“一条龙”,落地豆包手机
字节坚持端到端纯视觉路线,无需外挂工具链。UI-TARS-2解决数据扩展、RL稳定、环境鲁棒性问题,支持GUI+代码+API混合。
实际效果:豆包手机上,AI Agent像真人一样操作屏幕。
微软 UFO³ & Galaxy:深挖系统API + 多设备编排
微软从Windows出发,UFO³推出Galaxy框架,实现异构设备(Windows/Linux/Android)Agent 协调。


结合OmniParser纯视觉解析,适合企业级复杂工作流。
展望:GUI Agent的未来
2025年底,GUI Agent已从原型走向产品。开源生态繁荣(Awesome-GUI-Agent列表超百篇论文),端侧部署(2B~7B模型)成为可能。挑战仍存:隐私(屏幕读取)、幻觉、长任务稳定性。未来可能融合A2A(Agent-to-Agent)路线,实现更安全生态。
GUI Agent正重塑人机交互:从“说”到“做”,AI终于长出了“手”。2026,我们或许会看到真正通用设备Agent,解放双手,改变生活。
|