以相机作为输入的视觉同时定位与建图(SLAM)系统在地图构建过程中虽然可以保留点云的空间几何信息,但是并没有完全利用环境中物体的语义信息。针对这个问题,对当前主流视觉SLAM系统和基于Faster R-CNN、YOLO等神经网络结构的目标检测算法进行研究。并提出一种有效的点云分割方法,该方法引入支撑平面以提升分割结果的鲁棒性。最后在ORB-SLAM系统的基础上,结合YOLOv3算法进行环境场景的物体检测并保证构建的点云地图具有语义信息。实验结果表明,所提方法可以构建几何信息复杂的语义地图,从而可应用于无人车或机器人的导航工作中。