基于卷积神经网络的交通场景语义分割方法研究
为提高交通场景的语义分割精度,提出一种基于 RGB-D 图像和卷积神经网络的分割方法。首先,基于半全局立体匹配算法获取视差图D,并将其与RGB图像融合成四通道RGB-D图像,以建立样本库;其次,对于2种不同结构的卷积神经网络,分别采用2种不同的学习率调整策略对网络进行训练;最后,对训练得到的网络进行测试及对比分析。实验结果表明,基于RGB-D图像的交通场景语义分割算法得到的分割精度高于基于RGB图像的分割算法。
为提高交通场景的语义分割精度,提出一种基于 RGB-D 图像和卷积神经网络的分割方法。首先,基于半全局立体匹配算法获取视差图D,并将其与RGB图像融合成四通道RGB-D图像,以建立样本库;其次,对于2种不同结构的卷积神经网络,分别采用2种不同的学习率调整策略对网络进行训练;最后,对训练得到的网络进行测试及对比分析。实验结果表明,基于RGB-D图像的交通场景语义分割算法得到的分割精度高于基于RGB图像的分割算法。