小米机器人突破触觉感知瓶颈:仅凭触觉实现毫米级精细抓取
小米机器人TacRefineNet突破触觉感知瓶颈,仅凭触觉实现毫米级精细抓取,无需视觉和3D模型,解决工业自动化最后一公里难题。
2 月 7 日消息,小米机器人团队近日在具身智能领域取得重要突破,并于 2 月 5 日公布了其最新成果 ——TacRefineNet。
这是一个只依靠触觉、无需视觉、无需物体三维模型,就能实现毫米级位姿微调的通用框架。它的核心特性如下:
无需视觉:基于高空间分辨率触觉传感器,不受光照和遮挡影响,实现复杂接触下的可靠感知。
毫米级微调:通过多手指触觉与本体信息多模态信息融合,驱动姿态精准收敛,将抓取误差压降至毫米级。
无需三维模型:摆脱对物体先验几何模型的依赖,将复杂的抓取调整转化为触觉空间内的目标对齐问题。
一模多用:单一模型即可完成汽车工厂内多种工件的精细抓取调整,无论在仿真还是真实世界均表现出色。
泛化未知:模型具备一定的泛化能力,无需额外训练即可对未见过的类似物体、动态扰动环境保持高度鲁棒。
目标驱动:支持指定任意抓取目标位姿,无需针对特定任务重新训练,真正实现开箱即用的精细抓取。

这一创新技术有望解决机器人在实际应用中的“最后一公里”难题,为工业自动化带来新的可能性。
在机器人技术快速发展的背景下,触觉感知作为连接智能体与物理世界的关键桥梁,其重要性日益凸显。人类能够轻松完成剥鸡蛋等精细操作,正是依赖于高度发达的触觉系统。让机器人具备类似的触觉感知能力,成为突破当前技术瓶颈的重要方向。

据所知,TacRefineNet 模型的最大特点是仅依靠触觉信息就能实现毫米级精度的抓取调整,完全不需要视觉辅助或物体的三维模型。

该模型基于高空间分辨率触觉传感器,通过多手指触觉与本体信息的融合,能够将抓取误差控制在毫米级别。在实际测试中,无论是仿真环境还是真实场景,该模型都展现出优异的性能。
值得一提的是,单一模型就能处理汽车工厂中多种工件的精细抓取任务,且不需要针对特定任务进行重新训练,真正实现了开箱即用。

技术团队通过大量仿真与真实机器人测试验证了 TacRefineNet 的性能。测试结果显示,该模型能够将多样化的初始抓取位姿快速调整至目标状态,平均位置误差可缩小至毫米级。

即使在物体位置和姿态频繁变化的情况下,系统仍能通过实时反馈进行精确调整。更令人惊喜的是,模型还展现出对未见过物体的泛化能力,能够处理具有类似几何特征的陌生物体。

这一突破性成果得益于数据、算法与硬件的深度融合。在数据方面,研究团队利用 MuJoCo 物理引擎构建了高保真触觉模拟器,实现了对接触力响应的精确建模。
算法层面,TacRefineNet 采用端到端的多模态学习架构,整合了多指触觉、本体感知与空间动作信息。
硬件方面,研究团队在灵巧手指尖集成了高空间分辨率触觉传感器,触点间距仅为 1.1 毫米,能够捕捉物体表面的微小形变特征。

目前,小米机器人团队已公开相关技术细节和实验视频,更多后续研究成果将陆续发布。

参考资料:
Project Page:https://sites.google.com/view/tacrefinenet
Arxiv: https://arxiv.org/pdf/2509.25746

