神经网络模型已经成功应用于大量自然语言处理任务。当今主流的端到端深度学习模型都是黑盒模型,人们难以知道模型做出某一决策的依据,从而不敢轻易放心地使用。同时,开发人员也很难进行针对性的调整(比如修改网络架构),难以让决策过程更透明与准确。
深度学习模型的可解释性研究可以在做出决策的同时给出相应的依据,从而更明确NLP模型的业务适用场景,整个模型决策过程也是可控可反馈的,这就使得用户和监管人员对AI系统的信赖度得以增加。
可解释性能帮我们做些什么
医学问答中的可解释性
可解释性与鲁棒性的关联
『千言万语』
技术分享栏目
神经网络模型已经成功应用于大量自然语言处理任务。当今主流的端到端深度学习模型都是黑盒模型,人们难以知道模型做出某一决策的依据,从而不敢轻易放心地使用。同时,开发人员也很难进行针对性的调整(比如修改网络架构),难以让决策过程更透明与准确。
深度学习模型的可解释性研究可以在做出决策的同时给出相应的依据,从而更明确NLP模型的业务适用场景,整个模型决策过程也是可控可反馈的,这就使得用户和监管人员对AI系统的信赖度得以增加。
可解释性能帮我们做些什么
医学问答中的可解释性
可解释性与鲁棒性的关联
『千言万语』
技术分享栏目