Allen人工智能研究所(Ai2)近日宣布推出MolmoWeb,这是一款全新的开源视觉网络智能体,隶属于其Molmo 2模型家族。该模型提供40亿和80亿参数两种版本,设计上兼顾了性能与轻量化,能够在本地设备上运行,为研究人员提供了更灵活的实验环境。
在功能实现上,MolmoWeb能够模拟人类操作浏览器的完整流程:通过分析网页截图预测下一步动作,执行点击、输入文本或滚动等操作,从而完成导航、表单填写、商品搜索及信息检索等任务。这种设计使其在标准浏览器使用基准测试中表现突出,甚至超越了OpenAI早期版本的GPT-4o,同时在开放权重模型中领先于Fara-7B和GLM-4.1V-9B等竞争对手。
训练数据的规模与多样性是MolmoWeb的另一大亮点。其公开的数据集包含3万个真实人类任务轨迹,覆盖1100多个网站的近60万个子任务,堪称同类数据集中规模最大的公开资源。团队还通过可访问性树技术生成了补充合成数据,并标注了超过220万个问答对,用于强化模型对网页元素的理解能力。这些数据现已与模型权重、代码及评估工具一同在Hugging Face和GitHub平台开放下载。
Ai2团队指出,当前开源社区在视觉网络智能体领域面临多重挑战:缺乏高质量训练数据、基础设施支持不足以及评估工具缺失,这些问题严重制约了研究的可复现性与进展速度。MolmoWeb的发布旨在填补这一空白,为研究人员提供从数据到工具的完整生态。正如其研究论文所述:“今天的网络智能体需要像早期大语言模型那样的开放基础,以推动整个领域的创新。”
尽管专有模型在整体性能上仍占据优势,但MolmoWeb的轻量化设计与开源特性使其在特定场景中更具吸引力。例如,研究人员可通过调整模型规模或训练数据,快速验证新算法在资源受限环境下的表现。这种灵活性不仅降低了研究门槛,也为未来更复杂的网络交互任务奠定了基础。






















