"); //-->
NLP中的可解释性
一般来说,高注意力对系统的影响比较大,比如说特殊的符号,对角线的元素。但在阅读理解问题上,研究者们发现去掉单个符号影响不大,去掉多个特殊的符号在英文上性能下降比较明显,然而中文上下降不是太明显,去掉对角的元素反而可以提升阅读理解的准确率。P2Q和P2P仍然是影响结果重要性的最主要的注意力区域。
探针方法
研究者们使用探针方法,实现对话理解中的可解释性认证。对话当中蕴含丰富的语言现象,传统对话系统无法理解对话中的省略和指代等现象,模型产生回复的过程不可解释。而刘挺教授团队在人人对话数据中插入QA对,通过对话模型能否正确地回答问题来检验模型是否真正理解对话的语义。并由此提出了一个DEQA数据集,通过可解释的QA方式验证了主流模型无法正确理解对话中语义的问题。
解释要素的注入
刘挺教授团队将符号知识注入神经网络,实现事件、时间、常识的知识预测。通过逻辑的推理可以扩大神经网络的训练集,同时利用逻辑规则在上层约束神经网络。从文本中无监督抽取的时间常识可能存在报告偏差,常见的情况在文本中并未显式提及,自然文本中几乎不会有类似的表达,预训练等大模型会在文本表达中对非寻常现象加以强调。刘挺教授介绍的方法通过利用不同维度间的时间常识知识之间的约束关系降低报告误差。
无监督文本生产解释
灰盒方法的主要思想是在构建系统的时候嵌入可解释的要素。刘挺教授首先介绍了基于神经-符号相结合的可解释性自然语言理解。符号表示有可程序化化可解释性强等优点,而神经AI表示能力和适应能力强,刘挺教授团队尝试将两者的优点结合在一起,构造了一个名为ExCAR的因果逻辑增强的可解释因果推理框架,例如从量化宽松到房价上涨找到推理路径,利用神经逻辑网络和条件马尔可夫还原背后的因果决策机制。
基于规则挖掘的知识发现,一般用表示学习、强化学习去进行知识的发现,利用实体的描述文本和结构信息实现知识不全;利用文本模型的输出稠密化知识图谱;利用EM和ML两种方法融合文本模型和结构模型,进而实现基于分层推理的知识发现。
刘挺教授本次报告向大家分享了白盒、黑盒以及灰盒等可解释性方法,也介绍一些评价的方法和数据集。刘挺教授认为,可解释人工智能未来的发展趋势是神经网络和符号系统相互结合、推理规则与预训练模型的相互结合以及可解释规则证据的归纳和可视化。另外,如何设计面向自然语言处理的白盒模型是一项很大的挑战。现在多数工作仍然集中于黑盒的事后解释以及如何利用可解释要素提出灰盒方法,难点在于多数NLP模型基于神经网络模型,而神经网络模型本身的可解释性仍然是未解难题。除此以外,可解释性的评价需要更加综合、全面地进行评估,结合脑科学的学科发展对可解释性进行进一步的探索也是未来重要的研究方向。
*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。