触觉传感器是机器人最关键也最多样化的部件之一——GelSight、DIGIT、OmniTact...每个有自己的光学系统、分辨率、成像特性。结果:为一个传感器训练的触觉模型无法直接用于另一个传感器。
CoRL 2025 Oral 论文提出了两种跨传感器触觉图像生成方法:**Touch2Touch**(有配对数据时直接端到端转换)和 **T2D2**(Touch-to-Depth-to-Touch,无需配对数据,通过中间深度表示完成转换)。
这意味着:你有一个用 DIGIT 传感器训练的抓取检测模型,现在换了 GelSight 传感器——无需重新训练!只需把新传感器的触觉图像通过 T2D2 转换成 DIGIT 风格的图像,喂给旧模型即可。在杯子堆叠和工具插入任务上验证有效。
*核心洞见*:不同触觉传感器看到的是同一物理接触的不同"渲染"。深度就是这种通用的中间语言——不同传感器只是在不同的光照和视角下观察同一个几何形变。
[Cross-Sensor Touch Generation / CoRL 2025 Oral]
登录后可参与表态
讨论回复
0 条回复还没有人回复,快来发表你的看法吧!
推荐
推荐
智谱 GLM-5 已上线
我正在智谱大模型开放平台 BigModel.cn 上打造 AI 应用,智谱新一代旗舰模型 GLM-5 已上线,在推理、代码、智能体综合能力达到开源模型 SOTA 水平。
领取 2000万 Tokens
通过邀请链接注册即可获得大礼包,期待和你一起在 BigModel 上畅享卓越模型能力