发布时间:2022-10-25 18:30 作者:创始人
简述:神经网络模型已经成功应用于大量自然语言处理任务。当今主流的端到端深度学习模型都是黑盒模型,人们难以知道模型做出某一决策的依据,从而不敢轻易放心地使用。同时,开发人员也很难进行针对性的调整(比如修改网络架构),难以让决策过程更透明与准确。
神经网络模型已经成功应用于大量自然语言处理任务。当今主流的端到端深度学习模型都是黑盒模型,人们难以知道模型做出某一决策的依据,从而不敢轻易放心地使用。同时,开发人员也很难进行针对性的调整(比如修改网络架构),难以让决策过程更透明与准确。
深度学习模型的可解释性研究可以在做出决策的同时给出相应的依据,从而更明确 NLP 模型的业务适用场景,整个模型决策过程也是可控可反馈的,这就使得用户和监管人员对 AI 系统的信赖度得以增加。
另一方面,可解释性是衡量人工智能系统性能的重要指标之一。比如在医疗、金融、法律等应用领域中,不可知不可控的 AI 技术应用会带来争议和质疑。NLP 模型的可解释性研究能够提升人们对深度学习技术的可信度,实现更加可知可控的推理决策。
这些因素都促使人们努力解释这些黑盒模型是如何工作的。我国国务院印发的《新一代人工智能发展规划》中提到可解释性 AI(XAI)研究的重要性、信通院发布的《可信人工智能白皮书》提到了可解释人工智能的研究、国家自然科学基金委员会也发布了“可解释、可通用的下一代人工智能方法”重大研究计划。同时,XAI 研究在国际上也受到了越来越多的关注,许多国际组织机构将 XAI 作为重要的技术发展战略。美国和欧盟都在最近几年开展了可解释人工智能计划,一些研究机构也顺应发布了《可解释人工智能白皮书》等。
本期『千言万语』邀请李东方博士,为大家介绍关于自然语言处理模型的可解释性的发现和见解。
分享大纲:
>> 可解释性能帮我们做些什么
此次分享关注模型校准和医学自动诊断任务。通过这些工作表明可解释的相关技术能够在自然语言处理领域不同任务发挥一定作用。
>> 医学问答中的可解释性
此次分享关注于融合知识的模型来解决医学问答,表明显式和隐式领域知识表示的结合对机器阅读理解的性能改进和可解释性很有帮助。
>> 可解释性与鲁棒性的关联
通过研究结果发现:
在自然语言处理模型中,可解释性和对抗性鲁棒性之间存在联系;
(不)可靠的解释方法可能是由模型缺乏鲁棒性造成的。
李东方博士来自哈尔滨工业大学(深圳)计算机学院智能计算研究中心,目前专注于可解释自然语言处理领域的研究。曾在 AAAI、EMNLP、COLING 等会议发表相关论文,其硕士和本科分别毕业于哈尔滨工业大学(深圳)和中国海洋大学计算机系。
活动详情可扫码参与
腾佑AI(ai.tuidc.com) 成立于2007年,一直致力于发展互联网IDC数据中心业务、云计算业务、 CDN业务、互联网安全及企业客户技术解决方案等产品服务, 2018年成为百度云河南服务中心。主营服务器租用,服务器托管,虚拟主机, 域名注册,机柜租用,主机租用,主机托管,带宽租用,云主机,CDN加速 , WAF防火墙,网络安全,人脸识别,文字识别,图像识别,语音识别等业务;
售前咨询热线:400-996-8756
备案提交:0371-89913068
售后客服:0371-89913000
热搜词
微信公众号
手机站
COPYRIGHT 2007-2020 TUIDC ALL RIGHTS RESERVED 腾佑科技-百度AI人工智能_百度人脸识别_图像识别_语音识别提供商
地址:河南省郑州市姚砦路133号金成时代广场6号楼13层 I CP备案号:豫B2-20110005-1 公安备案号: 41010502003271
声明:本站发布的内容版权归郑州腾佑科技有限公司所有,本站部分素材来源于网络及网友投稿,若无意中侵犯了您的版权,请致电在线客服我们将在核实后予以删除!