关于举办“CCF-NLP走进华南理工大学”学术讲座的通知

发布时间:2020-09-01 浏览次数:12


会议时间:2020年9月6日下午1400-1745

会议形式:腾讯会议

会议ID 189 440 052 

会议主题:CCF-NLP走进华南理工大学

主办单位:中国计算机学会自然语言处理专委会

承办单位:华南理工大学软件学院、大数据与智能机器人教育部重点实验室

主持人:蔡毅

 此次会议旨在为高校、研究所以及工业界从事自然语言处理工程相关方向的教师和研究人员提供一次交流和学习的机会,共同探讨相关领域各方向的科研动态及发展趋势。本次讲座很荣幸地邀请到华为诺亚方舟实验室语音语义首席科学家刘群博士,北京大学王选计算机研究所研究员、博士生导师赵东岩教授,及天津大学新媒体与传播学院长聘副教授张梅山介绍他们预训练语言模型、基于知识的文本语义理解与文本生成、基于翻译的无监督跨语言迁移学习等领域的一些最新研究成果。

96下午,让我们相聚线上交流平台,一起来探讨自然语言处理的前沿课题与技术。

诚挚邀请各位专家、老师与同学参加!


 ---------------------------------------------------------------------------------------------------------------

报告1题目:预训练语言模型研究进展

专家简介:

刘群,华为诺亚方舟实验室语音语义首席科学家,负责语音和自然语言处理研究。原爱尔兰都柏林城市大学教授、爱尔兰ADAPT中心自然语言处理主题负责人、中国科学院计算技术研究所研究员、自然语言处理研究组负责人。分别在中国科学技术大学、中科院计算所、北京大学获得计算机学士、硕士和博士学位。研究方向主要是自然语言理解、语言模型、机器翻译、问答、对话等。研究成果包括汉语词语切分和词性标注系统、基于句法的统计机器翻译方法、篇章机器翻译、机器翻译评价方法等。承担或参与众多中国、爱尔兰和欧盟大型科研项目。在国际会议和期刊发表论文300余篇,被引用8000多次。培养国内外博士硕士毕业生50多人。

中文摘要:

预训练语言模型在最近的研究工作中表现出了强大的学习能力,为自然语言处理研究打开了全新的局面,并推动了整个人工智能领域的发展。我将在本报告中介绍华为诺亚方舟实验室在这一领域开展的一系列工作,主要是最近的一些成果,包括:用概率掩码的预训练语言模型同时实现自然语言的理解和任意词序的生成;通过扰动掩码实现基于BERT的无监督句法分析;TinyBERT2.0:预训练语言模型的极限压缩;DynaBERT:动态可伸缩的预训练语言模型。最后我会简单介绍一下我们的开源预训练语言模型哪吒(NEZHA)的最新情况。

 ----------------------------------------------------------------------------------------------------------------

报告2题目基于知识的文本语义理解与文本生成

报告人简介:

赵东岩,北京大学王选计算机研究所研究员,博士生导师。主要研究方向为自然语言处理、大规模语义数据管理、智能知识服务技术,主要研究兴趣包括基于知识的自然语言理解、知识图谱构建以及基于知识的问答与对话系统。近年来承担国家级项目15项、主持7项,发表学术论文100余篇(包括ACLAAAIIJCAISIGMODVLDBVLDB JournalTKDECCF A类会议和期刊论文60余篇),授权发明专利20项、申请10项,先后七次获得国家和省部级奖励,包括2006年度国家科技进步二等奖(排名第一)。个人获第十届中国青年科技奖(2007年)和北京市第七届“科技之光”技术创新特别奖等荣誉。计算机学会(CCF)杰出会员,CCF中文信息技术专委会秘书长(2010-2019)、CCF大数据专家委员会委员、CCF网络与数据通信专委会委员。 

中文摘要

语义理解是自然语言处理乃至人工智能的核心任务之一。基于知识图谱的语义理解的研究目标是将自然语言文本解析为基于知识库的结构化语义表示,从而使计算机具备理解和运用知识的能力。本报告将以知识服务为背景,探讨如何基于知识图谱理解语义、进而运用知识实现智能问答和文本生成等智能应用的理论方法与技术路线,并介绍北大王选计算机研究所在这个研究方向上的具体进展。

 ----------------------------------------------------------------------------------------------------------------

报告3题目基于翻译的无监督跨语言迁移学习

报告人简介:

 张梅山,天津大学新媒体与传播学院长聘副教授。2014年博士毕业于哈尔滨工业大学,201411月至201511月在新加坡科技与设计大学做博士后,20161月至20193月为黑龙江大学副教授,20194月入职天津大学。主要从事人工智能、自然语言处理和机器学习相关的研究工作,包括文本词法句法语义分析、情感分析、文本生成、舆情分析与导控、社交网络分析和深度学习等,并在自然语言处理领域的知名国际会议以及期刊上(CCF A/B)发表论文30多篇,google被引达1000多次 。编写软件包括面向自然语言处理的深度学习库,以及若干自然语言处理工具包。主持或者参与国家自然科学基金二项。

中文摘要

跨语言迁移学习是解决资源稀缺语言自然语言处理的一个非常有效的方法。对于某个特定的任务,我们假定在例如英语这种资源丰富语言上存在一定规模的标注语料,然后辅助一个机器翻译系统,便可以为目标语言提供自动构建的训练语料,从而指导目标资源稀缺语言的模型训练。本次报告将介绍两个任务的相关工作,分别针对依存句法分析和语义角色标注,调研基于翻译的方法在这两个任务上面的有效性。






TOP