报告时间(拟):2023年10月14日 下午 2:30
报告地点:(B7-303)
报告人:王津副教授
主持人:蔡毅教授
摘要:随着诸如ChatGPT,LLAMA等大规模语言模型(LLMs)的兴起,基于大模型的相关方法已经逐渐改变了解决自然语言处理中相关任务的范式,并取得了显著的成功。然而,它们所需的海量存储和GPU计算需求为实际部署带来了重大挑战,尤其是在资源受限的环境中显得尤为突出。而模型压缩和动态计算已经成为缓解这些限制的关键研究领域。本报告将着重介绍大模型动态计算与模型压缩的相关技术。具体而言,包括基于元学习和联邦学习知识蒸馏的模型压缩方法,以及基于投机采样和早期退出的动态计算方法等。
报告人简介:王津,云南大学信息学院副教授(博导),云南大学智能科学与技术系主任。2016年同时取得了云南大学通信与信息系统专业工学博士学位,及台湾元智大学计算机科学与技术专业工学博士学位。并于2016年12月进入云南大学信息学院担任教学科研工作,2018年11月破格提升为副教授。目前主要从事文本情感分析、深度学习、文本挖掘与自然语言处理相关领域研究。目前已发表录用中英文论文50余篇,其中以第一作者或者通信作者在IEEE/ACM TASLP、IEEE TAC、AAAI、ACL、NAACL、EMNLP、COLING、等顶级国际期刊和会议上发表20多篇学术论文。主持两项国家自然科学基金NSFC项目,并担任AAAI、IJCAI、ACL、EMNLP、ACM MM、KDD等人工智能顶级会议和IEEE TKDE、TMM、TASLP、TOIS等顶级国际期刊的审稿人。