返回列表 发布新帖

面向接触密集型任务的机器人新范式:结合视觉与触觉的反应扩散策略(RDP)

102 0
发表于 2025-4-15 13:40:41 | 查看全部 阅读模式
在机器人日益走向实际应用的今天,如何让机器像人类一样“有感觉”地完成复杂任务,成为一个关键技术挑战。特别是在诸如剥蔬菜皮、装配、双手搬运等接触密集型任务中,人类凭借视觉和触觉的高度协同,能够在极短时间内调整动作、精确控制接触力,实现高效且精细的操作。然而,传统的机器人学习方法,在这一类任务中常常表现不佳。
近日,一项名为**“反应扩散策略”(Reactive Diffusion Policy, RDP)**的研究提出了新的解决方案,通过结合视觉与触觉反馈,实现机器人对复杂接触任务的高效学习与精准执行。该研究通过两个关键创新——低成本遥操作系统 Tecter 和分层模仿学习算法 RDP,显著提升了机器人在接触密集型任务中的表现。
机器人为何难以胜任接触任务?
目前主流的机器人模仿学习方法多依赖视觉,例如Diffusion Policy(扩散策略)。这类方法虽能处理复杂动作,但通常采用“开环控制”方式——即按预定轨迹执行动作,缺乏实时反馈调节机制。因此在任务执行过程中,面对环境中不可预知的微小变化,机器人往往无法及时调整动作,导致失败。
此外,大多数遥操作平台也难以提供足够精细的触觉反馈,使得收集的训练数据缺乏触觉维度的信息,限制了机器人对真实环境的感知与应对能力。
Tecter —— 基于AR的低成本遥操作系统
为解决上述瓶颈,研究者设计了Tecter,一个基于增强现实(AR)的遥操作系统。该系统采用低成本触觉力传感器,结合AR视觉增强技术,使操作人员在遥控机器人时能够实时“感受到”机器人所承受的接触力。这一系统具有如下优势:
  • 实时触觉合力反馈,增强数据真实性;
  • 跨机器人平台部署能力,灵活适配不同机器人硬件;
  • 显著提升数据采集质量,为模仿学习提供高质量数据支持。

用户研究表明,使用Tecter系统采集的数据不仅更加真实准确,而且操作人员的操控体验也大幅提升。
RDP —— 分层的视觉触觉模仿学习算法
在算法方面,研究提出了名为Reactive Diffusion Policy(RDP)的新型模仿学习框架,融合视觉和触觉信息,实现更自然、精准的动作生成。RDP采用慢-快结合的分层策略网络,包括以下两个子模块:
  • 慢策略网络(Latent Diffusion Policy, LDP):以1~2Hz的频率生成抽象动作表示,专注于建模复杂长期行为;
  • 快策略网络(Asymmetric Tokenize Attention):以高频20Hz实时响应触觉变化,根据触觉反馈细调动作,实现闭环控制。

这种结构使RDP既能应对长时间跨度的复杂操作,又能在瞬间变化中快速调整,具备高度灵活性和鲁棒性。、


回复

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Copyright © 2025 OPENLOONG. All Rights Reserved. Powered by Discuz!
  • 关注B站
  • 关注抖音
  • 关注微信公众号
Copyright © 2025 开发者论坛 - OpenLoong 版权所有 All Rights Reserved.
关灯 在本版发帖 返回顶部
快速回复 返回顶部 返回列表