随着深度学习和计算机视觉领域的深度交融,人脸识别、图像(视频)生成、图像分类等一批先进技术取得了突飞猛进的进展.然而,深度学习模型由于其内部过程和结果预测都难以解释而被视为"黑盒模型",这给法庭科学领域内影像证据的可解释性带来了严峻挑战.基于此,本综述概述了基于深度学习的可解释性问题;重点介绍了国内外基于深度学习的人脸特征可解释性方面的理论方法研究,如可视化、基于扰动、基于分数/统计等方法,梳理其在人脸识别等相关领域,尤其是法庭科学人像专业方面的应用;结合现有研究提出基于深度学习模型的人脸特征可解释性方法存在的问题,并展望基于深度学习的人脸特征可解释性未来发展方向.
facial features interpretability facial recognition deep learning