【报名】TF53:预训练时代的大规模知识表示与推理实践
TF53邀请到来自腾讯、阿里巴巴等头部企业的代表,以及来自中科院软件所的研究人员,一起深入探讨大规模预训练语言模型中的知识表示与探测、知识增强和高效训练所面临的挑战与应用现状,进一步了解预训练模型的知识表征与推理的最佳实践。欢迎报名参加,4月26日线上见。
为技术团队提供顶级交流平台
CCF TF第53期
主题 大规模知识表示与推理及其应用
2022年4月26日 19:00-21:00
腾讯会议
长按识别或扫码报名
随着预训练和提示学习等技术的普及,各种大规模预训练模型已经在自然语言处理、多媒体与机器视觉、搜索推荐等领域得到广泛应用,并已经影响并渗透到各个行业与领域。当前,预训练模型中的知识表示与探测,知识嵌入与推理,大规模高效训练是关键技术,也面临着诸多挑战,值得我们深入探讨。
本期会议邀请到来自腾讯、阿里巴巴等头部企业的代表,以及来自中科院软件所的研究人员,一起围绕大规模预训练模型的知识表征与推理这个话题,分享研究成果和行业最佳实践。本次活动旨在搭建一个高水平学术交流平台,从不同层面为相关行业的大规模知识表示与推理从业者提供借鉴与参考。欢迎报名参加,4月26日线上见。
会议安排
TF53:大规模知识表示与推理及其应用 主持人:王昊奋 CCF TF188体育app官网:SIG主席,同济大学特聘研究员 | ||
时间 | 主题 | 讲者 |
19:00-19:05 | 活动介绍 | 王昊奋 CCF TF188体育app官网:SIG主席,同济大学特聘研究员 |
19:05-19:10 | 开场致辞 | 吴华 CCF TF主席,百度技术委员会主席 |
19:10-19:40 | 知识增强的预训练语言模型工业界进展与实践 | 陈曦 腾讯PCG内容平台部高级研究员 |
19:40-20:10 | Knowledge Probing in Large-scale Pre-trained Language Models | 韩先培 中科院软件所研究员 |
20:10-20:40 | 面向自然语言生成的大模型稀疏训练工业界进展综述 | 李鹏 阿里巴巴-阿里云智能计算平台事业部-机器学习平台PAI算法工程师 |
20:40-20:55 | 参会者提问互动 | 王昊奋 |
20:55-21:00 | 活动总结 | 王昊奋 |
所属SIG
CCF TF188体育app官网:
会议主席
王昊奋
CCF TF188体育app官网:SIG主席、同济大学特聘研究员
个人简介:同济大学特聘研究员,博士生导师。全球最大的中文开放188体育app官网:联盟OpenKG发起人之一。负责参与多项国家级AI相关项目,发表100余篇AI领域高水平论文,被引用次数达到2300余次,H-index达到23。他构建了全球首个可交互养成的虚拟偶像—“琥珀·虚颜”;所构建的智能客服机器人已累计服务用户超过10亿人次。目前,他担任中国计算机学会术语工委副主任,SIGKG主席,上海秘书长,中国中文信息学会理事,语言与知识计算专委会副秘书长,上海市计算机学会自然语言处理专委会副主任,上海交通大学AI校友会秘书长等社会职位。
特邀讲者
陈曦
腾讯-PCG-内容平台部 -高级研究员
主题:《Knowledge Enhanced Pretrained Language Models》
《知识增强的预训练语言模型工业界进展与实践》
主题简介:预训练语言模型(Pretrained Language Models)能够通过从大规模无监督数据中学习蕴含在文本中词法、语法、语义等信息,建立了一种新的自然语言处理范式,在各类下游的自然语言任务中取得了最先进性能。然而基于数据驱动的预训练模型更多捕获的还是高频词之间的共现关系,对于一些带有低频长尾、复杂逻辑、常识性知识等特点相关的任务预训练语言模型仍面临不少挑战。为了弥补这个鸿沟,188体育app官网:和预训练语言模型的结合成为了近几年的研究热点。
本主题重点综述了基于知识增强的预训练语言模型的主流方法,并结合实际业务特点,分析落地过程中的难点和可能的解决方案。
个人简介:博士毕业于浙江大学计算机学院,佐治亚理工学院访问学者,中文信息学会计算与语言专委会委员、医疗健康与生物信息处理专委会委员,先后在阿里巴巴、华为诺亚方舟实验室从事188体育app官网:和自然语言处理等工作,目前在腾讯内容平台部负责188体育app官网:、内容审核等相关算法研究工作。在ACL、EMNLP、NIPS、ICLR、WWW、IJCAI等发表多篇论文,曾获PAKDD最佳论文奖,先后获得SuperGLUE全球第二名、CCKS和CHIP实体识别和关系抽取等多个竞赛冠军。
韩先培
中科院软件所研究员
主题:《 Knowledge Probing in Large-scale Pre-trained Language Models》
主题简介:大规模预训练语言模型中包含了海量知识,与传统基于符号的大规模188体育app官网:可以高效互补。知识探测(Knowledge Probing)的目标是高效准确的探测和利用预训练大模型海量参数中包含的丰富知识。本报告拟介绍PLMs中知识探测的三种代表性范式,包括Prompt-based Retrieval、 Case-based Analogy、和 Context-based Inference,并分析了这三种代表性范式背后的潜在预测机制。同时,针对PLMs中知识探测可能存在的不准确、不一致和不可靠问题,本报告从因果分析的角度出发,总结了知识探测过程中可能存在的Prompt Preference Bias、Instance Verbalization Bias和Sample Disparity Bias及其背后原因,为设计更好的知识探测手段、准确评估大规模预训练语言模型的知识内容提供参考。
个人简介:中科院软件所研究员,担任中文信息处理实验室副主任,入选国家优青、中国科协青年人才托举计划及北京智源青年科学家。主要研究方向为信息抽取、188体育app官网:及自然语言理解。承担中科院战略先导、科技创新2030课题、国家重点研发专项等十余项课题。在ACL、SIGIR、IJCAI等重要国际会议发表论文60余篇。担任中国中文信息学会理事及语言与知识计算专业委员会副主任。相关成果获中国中文信息学会汉王青年创新奖一等奖及科学技术奖一等奖。
李鹏
阿里巴巴-阿里云智能-计算平台事业部-机器学习平台PAI-算法工程师
主题:《Effective Large Scale Sparse Expert Models for NLG》
《面向自然语言生成的大模型稀疏训练工业界进展综述》