全球劳动力市场长期存在显著的性别工资差距——在同等学习工作背景和差不多的工作内容下,男性的工资显著高于女性!在人工智能招聘工具日益普及的今天,隐去姓名和性别是一种避免AI工具在招聘中出现性别歧视的常规方法。简历作为求职过程中的核心评估材料,其文本中是否存在系统性的性别语言差异?AI能否捕捉到这些差异(默默地预测出性别,默默地歧视女性),从而影响到AI招聘算法的公平性?这些问题尚未得到充分的实证研究。
近日,四川大学计算机学院吕建成教授团队联合国防科技大学吕欣教授、香港大学高见教授等,电子科技大学周涛教授等,在《Journal of the Royal Society Interface》上发表研究成果,首次基于大规模真实简历数据系统揭示了简历语言中的性别差异及其对薪资预期与AI预测的影响。该研究由四川大学屈茜博士担任第一作者,四川大学刘权辉教授担任通讯作者(另有打酱油的联合通讯作者若干)。
本研究构建了一个基于深度神经网络的简历分析模型,通过对670万份中国求职者的简历进行语言特征提取与统计分析,发现男性与女性在简历表达中呈现出显著的语言模式差异。这种差异不仅体现在基础词汇使用层面,也体现在更高层次的语义结构上。简单训练的深度学习模型就能够精准识别性别,准确率高达80%。研究进一步发现,随着教育水平和写作规范程度的提高,简历中的性别信号减弱。简单来说,高学历的男性和女性较难分辨,低学历的男性和女性较容易分辨,在一个规范的表格里面填写内容较难分辨,大段大段自由发挥的文字容易分辨。
尽管更强的语言表达能力通常与更高的薪资预期相关,但职业性质对该关系具有显著调节作用。在女性主导的职业中,语言能力强的男性往往获得更大的薪资溢价,而女性则相对难以从中受益,这可能意味着“语言能力”的经济价值在不同性别间存在不平等分配。
这一发现对于AI招聘系统的公平性具有重要警示意义:即使简历中隐去了性别信息,AI仍可通过语言特征还原性别,从而潜在加剧招聘决策中的性别偏见。本研究同时也为求职者如何模糊简历中的性别线索提供了可行策略(通过修改语言表达方式,具体哪些表达方式容易暴露性格,文章中有具体分析),有助于减少AI自动化筛选中的结构性不公平。
总体而言,本研究基于大规模真实数据揭示了简历语言中的性别差异及其对AI预测的影响,为理解劳动力市场性别不平等问题提供了新的实证视角。研究结果对于制定AI时代下的公平招聘政策具有重要的理论价值与现实指导意义。
论文信息:Q. Qu, Q.-H. Liu, J. Gao, S. Huang, W. Feng, Z. Yue, X. Lu, T. Zhou, J. Lv, Gender differences in resume language and gender gaps in salary expectations, Journal of Royal Society Interface 22 (2025) 20240784.
全文链接:https://royalsocietypublishing.org/doi/10.1098/rsif.2024.0784