EN
学术报告
自然语言处理中的可解释性分析
发布时间:2022-03-19        浏览次数:749

报告题目:自然语言处理中的可解释性分析

报告人:黄萱菁  教授复旦大学计算机科学技术学院 

主持人:王晓玲  教授

报告时间:2022324日星期四 上午10:00-11:00

报告地点:腾讯会议(会议号:900-789-478


报告摘要    

      机器学习和深度学习的可解释性指的是以受众可理解的,直截了当的方式解释模型预测值的程度。近年来,深度学习已经在自然语言处理中取得成功应用,大幅度提升了各种任务的性能,但由于其内在复杂性,可理解性和可解释性不够令人满意,也妨碍了深度学习方法的进一步推广。该报告首先介绍什么是可解释性分析,自然语言处理中有哪些可解释性分析任务,可解释性分析的目的,然后从理解模型部件的功能属性、解释模型预测的行为、模型诊断三个方面介绍可解释性分析在自然语言处理领域的发展现状,以及复旦大学团队在自然语言处理可解释性分析方面取得的成果,最后展望了未来的研究趋势


报告人简介    

       黄萱菁,复旦大学计算机科学技术学院教授、博士生导师。1998年于复旦大学获计算机理学博士学位,研究领域为人工智能、自然语言处理、信息检索和社会媒体分析。兼任中国中文信息学会理事、社会媒体专委会副主任,中国计算机学会自然语言处理专委会副主任、学术工作委员会委员、AACL执委。在高水平国际学术期刊和会议上发表了百余篇论文,负责的多个科研项目受到国家自然科学基金、科技部、教育部、上海市科委的支持。近年来担任2015年社会媒体处理大会程序委员会副主席,2016年、2019年全国计算语言学会议程序委员会副主席,2017年国际自然语言处理与中文计算会议程序委员会主席,2020年国际自然语言处理与中文计算会议大会主席,2021EMNLP自然语言处理实证方法国际会议程序委员会主席等学术职务,获2021年上海市育才奖,并入选由清华—中国工程院知识智能联合研究中心和清华大学人工智能研究院联合发布的“2020年度人工智能全球女性”,“2020年度AI 2000人工智能全球最具影响力提名学者”及“福布斯中国2020科技女性榜”



中山北路3663号理科大楼 200062

沪ICP备05003394


Copyright 2019计算机科学与技术学院