188体育app官网_188体育投注

YEF2024 | AIGC:我太“男”了?——大模型中的性别偏差问题 YOCSEF 一方沙龙青年精英大会专题论坛
2024-05-28 阅读量:55 小字

2024 CCF青年精英大会(YEF 2024)于2024年5月16-18日在宁波市召开。YOCSEF “一方/IF沙龙”在5月17日举办了题为“AIGC:我太“男”了?——大模型中的性别偏差问题”的明辨堂论坛,本次论坛由YOCSEF昆明与YOCSEF哈尔滨联合协办。

1

1 一方沙龙精英大会专题论坛

大模型正在成为推动社会进步和信息社会生态重构的关键力量,在医疗、金融、教育等多个领域展现出革命性的潜力,但人工智能领域中的性别偏见问题及其潜在影响却如同暗流时刻威胁着技术的公正性和准确性。如果大模型在训练过程中吸收了带有性别偏见数据或方法,这些偏见很可能反映在其输出决策中。这不仅可能导致机会分配不平等,还可能在日常人机互动中加深性别刻板印象,长期累积还可能引发“蝴蝶效应”,加剧性别不平等,对整个社会结构和文化认知产生更深远的影响。

在此背景下,“一方/IF”沙龙提出围绕大模型性别偏差问题展开讨论的思辨论坛。本次论坛由CCF YOCSEF昆明23-24年度赵样、CCF YOCSEF哈尔滨24-25年度主席李洋担任执行主席,YOCSEF西安23-24年度委员贾阳担任线上执行主席,邀请了哈尔滨工业大学姚鸿勋教授、复旦大学邱锡鹏教授、北京理工大学高扬副教授做引导报告,邀请了腾讯云公司徐小敏总经理、青岛洞听智能科技有限公司姚长江技术总监、山东女子大学田杰教授作为思辨嘉宾,就大模型是否具有性别偏差,性别偏差有何影响,如何识别、减少和纠正以及女性力量在其中面临的机遇和挑战展开讨论,目标是促进智能社会的公平与包容性发展等问题展开讨论。本次论坛包含三位领域资深专家教授的引导发言和三个逐步递进的思辨议题讨论。

2

图2 引导发言嘉宾为相关领域资深专家

引导发言1:情感认知探索与大模型中的性别塑造

论坛首先由哈尔滨工业大学计算学部长聘教授姚鸿勋教授进行引导发言,深入探讨情感认知在大模型中的作用及其对性别塑造的影响。情感计算是以图像为刺激物,预测和度量人产生的情感反馈,情感认知是AIGC理解人类语言和行为的关键,但现有模型可能因为训练数据的性别偏见而产生对特定性别的刻板印象,不仅限制了模型的准确性,也可能在人机交互中加深性别歧视。例如,现有AIGC模型会考虑性别偏向而给出不同的生成内容,比如问题中提及“小明”、“小红”等人名会被大模型潜在认为分别是男性与女性角色,而给出不同的生成画面及文字回答,性别偏差也是未来大模型研究中一个值得考虑的问题。有趣的是,在论坛现场姚教授发现他们所使用的数据集也在无意中发生了性别偏差,采集的舞蹈视频基本都由女性进行表演,缺少男性样本,在后期引入男性表演视频数据也许能够更好地描述舞蹈动作特征,进一步提升模型性能。

发言后,一方沙龙23-24年度主席牛瑞向姚教授颁发了感谢牌。

3

图3 姚鸿勋作引导发言《情感认知探索与大模型中的性别塑造》

引导发言2:大模型对齐

4

图4 邱锡鹏作引导发言《大模型对齐》

性别偏差问题属于大模型对齐领域中的子问题。复旦大学计算机学院邱锡鹏教授着重探讨了如何通过大型模型进行性别对齐来提升女性在AI模型中的代表性,以减少和消除这些性别偏见。刻板印象是大模型中一个非常重要的研究内容。例如,在早期的大模型中,如GPT-2、LLaMA等由于语料有限,会生成更多的负面内容;在AIGC扮演专家角色进行内容生成时,以男性专家角色会生成更准确的结果。随着模型训练中语料数据的增加,偏见现象会逐步得到改善,如在GPT-4中,生成的负面内容占比会逐步降低,但在实际研究中,要进行语料的性别校正需要非常大的投入。由于数据驱动的大模型在泛化性、持续性、脆弱性方面与伦理导向的多元性、动态性、少数恶意性存在矛盾,需要进行模型对齐,通过人类偏好建模、价值观对齐等方法来调整模型输出更积极的内容。

引导发言3:大模型的发展:顺应过去还是改变未来?