人工智能可解释性:发展与应用

TP391; 近年来人工智能在诸多领域和学科中的广泛应用展现出了其卓越的性能,这种性能的提升通常需要牺牲模型的透明度来获取.然而,人工智能模型的复杂性和黑盒性质已成为其应用于高风险领域最主要的瓶颈,这严重阻碍了人工智能在特定领域的进一步应用.因此,亟需提高模型的可解释性,以证明其可靠性.为此,从机器学习模型可解释性、深度学习模型可解释性、混合模型可解释性3个方面对人工智能可解释性研究的典型模型和方法进行了介绍,进一步讲述了可解释人工智能在教学分析、司法判案、医疗诊断3个领域的应用情况,并对现有可解释方法存在的不足进行总结与分析,提出人工智能可解释性未来的发展趋势,希望进一步推动可解释性研究的发...

Full description

Saved in:
Bibliographic Details
Published in计算机科学 Vol. 50; no. z1; pp. 9 - 15
Main Authors 王冬丽, 杨珊, 欧阳万里, 李抱朴, 周彦
Format Journal Article
LanguageChinese
Published 湘潭大学自动化与电子信息学院 湖南湘潭411105%悉尼大学电气与信息工程学院 悉尼2006%百度美国研究院 森尼韦尔94086 2023
Subjects
Online AccessGet full text

Cover

Loading…
More Information
Summary:TP391; 近年来人工智能在诸多领域和学科中的广泛应用展现出了其卓越的性能,这种性能的提升通常需要牺牲模型的透明度来获取.然而,人工智能模型的复杂性和黑盒性质已成为其应用于高风险领域最主要的瓶颈,这严重阻碍了人工智能在特定领域的进一步应用.因此,亟需提高模型的可解释性,以证明其可靠性.为此,从机器学习模型可解释性、深度学习模型可解释性、混合模型可解释性3个方面对人工智能可解释性研究的典型模型和方法进行了介绍,进一步讲述了可解释人工智能在教学分析、司法判案、医疗诊断3个领域的应用情况,并对现有可解释方法存在的不足进行总结与分析,提出人工智能可解释性未来的发展趋势,希望进一步推动可解释性研究的发展与应用.
ISSN:1002-137X
DOI:10.11896/jsjkx.220600212