针对光场相机结构和像素传感器分辨率的限制导致光场图像空间分辨率和角度分辨率都较低的问题,提出一种融合全局与局部视角的光场超分辨率重建算法,同时提高光场图像的空间分辨率和角度分辨率。首先根据待重建新视角的位置,自适应选择局部视角,利用空间超分辨率卷积神经网络提高全局视角和局部视角的空间分辨率,然后提取并融合全局视角和局部视角在新视角处映射图像的深度特征和颜色特征,通过角度分辨率卷积神经网络重建获得新视角图像。实验结果表明,与现有方法相比,峰值信噪比(PSNR)提高约3dB,结构相似性指数(SSIM)提高约0.02,有效地解决了遮挡情况下重建新视角局部目标丢失现象,同时更好地保持新视角的边缘信息