6D物体位姿估计
技术全新升级,估计 RGB-D 图像中未见物体实例的 6D 位姿和尺寸,假设在训练或测试期间没有可用的精确物体 CAD 模型,基于区域神经网络,与深度图相结合,共同估计杂乱场景中多个物体的度量 6D 位姿和尺寸。采用上下文感知技术来生成大量完全标注的混合现实数据。本方法能够稳健地估计真实环境中未见物体实例的位姿和大小,同时在标准 6D 位姿估计基准上实现最先进的性能。
跟踪视频序列中物体的 6D 位姿
本创新技术构建通用框架用于对操控过程中出现的新物体进行 6D 位姿跟踪,不依赖于实例或类别级别的 3D 模型。它利用深度学习最新进展的互补属性进行分割和稳健的特征提取,以及记忆增强的位姿graph优化以实现时空一致性。实现在各种具有挑战性的场景下进行long-term、低漂移的跟踪,包括显著的遮挡和物体移动。CUDA 实现为整个框架提供了 16Hz 的实时性能。
抓取任务中视频目标跟踪
跟踪方法中通过最小化目标函数提供有效的全局推理。本创新采用基于 Transformer 模型预测模块的跟踪器。 以很少的归纳偏差捕获全局关系,学习更强大的目标模型的预测。端到端地训练提出的跟踪器,并通过对多个跟踪数据集进行综合实验来验证其性能。我们的跟踪器在工业抓取基准上达到了最新的技术水平。
任务相关的抓取
与任务相关的抓取对于工业装配至关重要,其中下游操作任务限制了一组有效的抓取。学习如何执行这项任务具有挑战性,因为与任务相关的抓取标签很难定义和标注。对于建模的正确表示或用于执行任务相关抓取的现成工具也没有达成共识。本产品创新提出了一个框架来学习工业物体的任务相关抓取,而不需要耗时的现实世界数据收集或手动标注。允许在物体实例之间建立密集的对应关系,并将任务相关的抓取迁移到新的实例上。
创新技术: 东如智能视觉云平台 东如机器视觉算法库 东如机器人视觉算法库
智能机器人视觉系统
6D Object Pose Estimation and Tracking
RGB-D深度视觉算法给您带来更灵巧的机器人操作体验 全新升级
智能制造是第四次工业革命的关键要素。使制造业各类企业能够超越传统优势(在时间和强度上),专注于品质、人力和整体工厂效率。提高产量和减少耗费来增加利润。智能制造在人与机器之间实现了更大的自主性。“协作机器人”伴随工人身边运作,受到全面的功能安全协议约束,确保机器人的安全工作范围,使人们能够专注于质量、生产力和更高级别任务。
智能机器人视觉系统
ABOUT US
为您开启全新智能视觉体验
图像分类 图像检测 图像分割 语义分割 实例分割 3D重建