这是一个pytorch实现,用于使用在论文提出的3D-resnet架构根据RGB,深度和RGB深度图像进行联合状态估计。 在本文中,他们表明可以使用大型视频数据集从头开始训练3D CNN架构,以进行动作识别。 在此代码中,我们将此架构转换为回归架构,以直接从视频图像估计机器人操纵器的关节状态。 网络模型的实现是从存储库并进行更改的。 请检查和以获取有关方法,结果和实现细节的更详细说明。 而且,在同一存储库中,它们为几种体系结构提供了预训练的权重,这些体系结构可用于微调此网络。 要运行代码: 在“数据”文件夹中,有一个小的示例数据集,以演示代码使用哪种数据以及如何创建数据集。 运行代码的步骤