10月『千言万语』系列技术分享来咯!
收藏
快速回复
【千言数据集】 其他学习资料开源方案 4177 0
10月『千言万语』系列技术分享来咯!
收藏
快速回复
【千言数据集】 其他学习资料开源方案 4177 0

千言开源数据集 | 千言万语系列技术分享之迈向可解释的自然语言处理
 
神经网络模型已经成功应用于许多自然语言处理任务。当今主流的端到端深度学习模型都是黑盒模型,人们难以知道模型做出某一决策的依据,从而不敢轻易放心地使用模型。同时,开发人员也很难进行针对性的调整(比如修改网络架构),也难以让决策过程更透明与准确。
 
深度学习模型的可解释性研究可以使人们在做出决策的同时给出相应的依据,从而更明确NLP模型的业务适用场景,整个模型决策过程也是可控可反馈的,这就使得用户和监管人员对AI系统的信赖度得以增加。
 
另一方面,可解释性是衡量人工智能系统性能的重要指标之一。比如在医疗、金融、法律等应用领域中,不可知、不可控的AI技术应用会带来争议和质疑。NLP模型的可解释性研究能够提升人们对深度学习技术的可信度,实现更加可知、更加可控的推理决策。
 
这些因素都促使人们努力解释这些黑盒子模型是如何工作。在我国,国家在发布的《新一代人工智能发展规划》中提到可解释性AI(XAI)研究的重要性、信通院发布的《可信人工智能》白皮书提到了可解释人工智能的研究、国家自然科学基金委也发布了《可解释、通用的下一代人工智能方案》重大研究计划。同时, XAI研究在国际上也受到了越来越多的关注,许多国际组织机构将XAI作为重要的技术发展战略。美国和欧盟都在最近几年开展了可解释人工智能计划,一些研究机构也顺应发布了《可解释人工智能白皮书》等。
 
本期『千言万语』邀请李东方博士,为大家介绍关于自然语言处理模型的可解释性的发现和见解:
 
•         显式和隐式领域知识表示的结合对机器阅读理解的性能改进和可解释性很有帮助。
•         医学问答中进行预测可以从决策过程中产生的解释中获益。
•         鲁棒的模型会产生更好的提取证据。
 
李东方博士来自哈尔滨工业大学(深圳)计算机学院智能计算研究中心,目前专注于可解释自然语言处理领域的研究,曾在AAAI, EMNLP, COLING等会议发表相关论文,其硕士和本科分别毕业于哈工大和中国海洋大学计算机系。
 
『千言万语』技术分享栏目


『千言万语』是千言中文开源数据集开设的月度技术分享栏目,在这里,你可以听到前沿的NLP研究进展、优质的评测技术方案分享以及一切你想听到的中文开源数据集相关的知识。
 
看直播,参与抽奖,赢精美礼品哦!

活动详情:

0
收藏
回复
在@后输入用户全名并按空格结束,可艾特全站任一用户