依托于综述性文章,首先回顾了可解释性方法的主要分类以及可解释深度学习在医疗图像诊断领域中应用的主要方法。结合三篇文章具体分析了可解释深度学习模型在医疗图像分析中的应用。作为一种领先的人工智能方法,深度学习在各种医学诊断任务中非常有效,甚至在某些方面超过了人类专家。然而,这些方法尚未在医学领域广泛推广,主要原因是深度学习方法的黑盒特性。尽管深度学习方法有完备的数学统计原理,但缺乏明确的知识表征解释,这限制了其在医学、金融、自动驾驶等领域的应用。研究表明,现有的深度学习模型参数和结构不能直接解释模型行为。在医学影像学中,可解释性尤为重要。理想情况下,一个医疗诊断系统应当透明、可理解、可解释,才能获得医生、监管者和病人的信任。聚焦于医学影像学背景下深度学习模型的可解释性研究,分析了其在医疗图像分析中的应用。