山西卫视晚间新闻报道
7月15日下午,CCF YOCSEF太原在山西大学计算机与信息技术学院举办“AI for Science大行其道,如何应对AI against Scientists”观点论坛,本次论坛由YOCSEF太原AC委员姚姗姗和副主席徐双担任执行主席,AC委员许骁哲和AC委员韩英担任线上主席。


执行主席姚姗姗和徐双作开场介绍
本次观点论坛邀请到中国科学院计算技术研究所研究员冯洋、太原理工大学计算机科学与技术学院教授王莉担任引导嘉宾,还邀请到中国科学院计算技术研究所研究员王元卓、华南理工大学软件学院副教授陈俊颖、山西大学计算机与信息技术学院教授张虎、中国科学院山西煤炭化学研究所副研究员宋昌、算力互联(北京)科技有限公司副总经理李哲、山西医科大学第一医院神经外科主治医师王明宇担任特邀嘉宾。本次观点论坛旨在讨论大模型对于科研人员的便利、冲击和挑战,并提出应对策略。


参会现场全景
引导发言
第一位引导嘉宾中国科学院计算技术研究所研究员冯洋以《在语料和模型规模之外:如何有效训练大模型?》为题作报告,她首先阐述了大语言模型出现的原因、进化历程,接着指出ChatGPT的关键技术主要是预训练语言模型和指令微调。大预言模型目前面临的挑战有算力需求高、语料收集困难、Scaling Law、隐私安全和伦理道德等问题,只有当模型参数达到一定规模时才会出现“涌现”能力。她还介绍了参数高效的微调方法LoRA和特定NLP任务的指令构建,目前“百聆”大模型存在的问题是以英语为主,其他语言能力不强,如果要提升大模型在其他语言上的能力,则需要扩充预训练语料,提升基座语言模型生成该语言能力,构建该语言指令,提升大模型在该语言上与人类对齐能力。但是构造多种语言的预训练语料和指令数据,会导致大模型的训练成本过高、效率低下。解决方法是通过交互式机器翻译来避免数据标注,同时提升语言生成和与人类对齐能力,因此“百聆”大模型表现出了更强的中文能力、多轮交互能力。目前“百聆”大模型在垂直领域方面的表现结果:翻译任务达到GPT4 95%的性能,取得开源的翻译大模型中的最佳性能,验证了百亿模型在垂直领域的可行性;在通用领域方面的表现结果:通用任务达到GPT3.5-turbo 89%的性能,增强的语言对齐带来多方面提升。最后,她从训练领域模型、高效训练和引入领域知识这3方面对大模型做出了未来展望。

中国科学院计算技术研究所研究员冯洋作引导报告
第二位引导嘉宾太原理工大学计算机科学与技术学院王莉教授以《大模型浪潮下的高校科研与教育》为题作报告,她首先阐述了大模型的定义和发展进化历程,接着引出大模型的出现对自然语言处理、计算机视觉、声音识别和语音合成等领域带来的机遇与挑战。她通过最新的研究论文指出GPT类大模型逐渐成为一种通用技术,已经影响到80%的工作岗位,着重指出了大模型对教育行业的影响,并提出了教师和学生的应对方案。随后她又强调了由于大模型的出现而产生了新的科研方向。最后她指出大模型加速了高等教育的变革,并给出了相应的数据需求、芯片需求、模型需求、应用需求和安全需求。

太原理工大学计算机科学与技术学院教授王莉作引导报告

姚姗姗为引导嘉宾冯洋颁发感谢证书

徐双为引导嘉宾王莉颁发感谢证书

