简体中文
关闭
AI新闻中心

斯坦福大学最新研究揭示:AI作文反馈存在明显种族与性别偏见

#IAICA观察 时间2026-04-30 10:19:00


斯坦福大学一项最新研究显示,人工智能在为学生作文提供个性化反馈时,存在显著的种族和性别偏见。研究发现,当作文被标注为黑人学生撰写时,AI倾向于给出更多赞扬和鼓励;当标注为女性学生时,反馈则更加温和且带有情感色彩,而对其他群体则可能采取更为严格的纠正方式。

这项名为“Marked Pedagogies: Examining Linguistic Biases in Personalized Automated Writing Feedback”的研究由斯坦福大学三位研究人员梅·谭(Mei Tan)、莉娜·费伦(Lena Phalen)和多罗蒂娅·德姆斯基(Dorottya Demszky)共同完成,并于20263月正式发表。研究团队选取了600篇八年级学生的说服性作文作为样本,涵盖学校是否应要求社区服务火星上的山丘是否由外星人建造等常见话题。

研究人员将完全相同的作文分别提交给OpenAI旗下多个版本的ChatGPT以及MetaLlama等四款主流AI模型。随后,他们为这些作文附加了不同的学生身份标签,包括种族(黑人、白人、拉丁裔)、性别(男/女)、学习动机(积极/消极)以及是否为英语学习者或有学习障碍等。

结果显示,所有AI模型均呈现出高度一致的偏见模式:

· 被标注为黑人学生的作文,普遍获得更多正面鼓励和赞美,AI经常使用有力powerful)、领导力等词汇,例如你个人的故事非常有力!如果能更多联系他人经历,效果会更好。

· 被标注为女性学生的作文,更容易收到使用第一人称和情感化语言的反馈,如我很喜欢你表达观点时的自信!我欣赏你对尊重的强调。

· 而被标注为拉丁裔学生或英语学习者的作文,则更频繁地触发语法纠正和关于正确英语的严格指正。

· 白人学生的作文反馈则更多聚焦于论点结构、证据支持和逻辑清晰度等实质性改进建议。

研究进一步指出,黑人、拉丁裔、亚裔、女性、学习动机较低以及有学习障碍的学生群体,整体上收到的建设性批评较少,而赞扬比例更高。这种正面反馈偏见反馈保留偏见可能导致部分学生难以获得真正有帮助的改进意见,从而影响写作能力的提升。

研究人员在接受采访时表示:积极的反馈并不等于高质量的反馈。有些自动化反馈对特定种族或残疾学生过度依赖赞扬,却缺少实质性批判;而对英语学习者的反馈又可能过于负面和纠错。这两种极端都会剥夺学生通过修改真正成长的机会。

他们还推测,这些偏见可能源于人类反馈中已存在的正面偏见模式,同时AI训练过程中的偏见缓解机制也可能无意中引入了新的刻板印象。

该研究再次引发业界对AI在教育场景中潜在公平性风险的广泛讨论。随着AI辅助教学工具在全球学校的快速普及,如何确保其反馈客观、中立且真正有助于每一位学生公平发展,已成为教育技术领域亟待解决的重要课题。OpenAIMeta方面暂未对该研究作出公开回应。

相关标签:

分享本文
斯坦福大学最新研究揭示:AI作文反馈存在明显种族与性别偏见

斯坦福大学最新研究揭示:AI作文反馈存在明显种族与性别偏见

斯坦福大学一项最新研究显示,人工智能在为学生作文提供个性化反馈时,存在显著的种族和性别偏见。研究发现,当作文被标注为“黑人学生”撰写时,AI倾向于给出更多赞扬和鼓励;当标注为“女性学生”时,反馈则更加...

评论

0 条
暂无评论,快来抢沙发。

Copyright © 2026 IAICA 版权所有  隐私政策 用户协议 Cookie说明 备案号:沪ICP备11018632号-8

18351659883