发布跨本体多模态视觉和触觉数据集,包含超过 60,000 分钟的机器人识别数据

1月26日,国家和地方仿人机器人创新中心及相关研究团队发布了“白虎-VTouch”跨体视觉触觉多模态数据集。该数据集包含超过6万分钟的机器人交互数据,涵盖视觉、触觉、关节姿态等多模态信息。这是目前同类中最大的开源数据集之一。据悉,该数据集涵盖了家庭服务、工业生产、餐饮服务等日常场景。包含380多个任务类型、500多个常用元素的作业数据,涵盖轮臂机器人、双足机器人、可穿戴智能终端等多种配置。通过系统地收集真实物理交互过程中的触觉和视觉信息,这套数据可以提高机器人对其物理环境的理解,为更精确、稳定的运动提供数据支持。在 th在技​​术实现层面,研究团队建立了多机器人同步数据采集平台,可同时支持10余类传感器的高带宽数据采集,并保证多模态数据的时间一致性。数据集中使用的视觉和触觉传感器可以记录与物体接触过程中的细微变形和压力分布的变化。该数据集第一批6000分钟数据已在开源平台发布,相关技术文档和使用说明将适时发布。研究团队表示,希望该数据集能够为机器人精准操控算法的研发提供基础资源,促进服务机器人在家庭护理、老人生活保障等场景中更好的实际应用能力。 (总台记者 张静)
(编辑:项小斌)

推荐文章

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注