硅谷AI巨头慌了!内部系统竟公然歧视女性:她不可能懂量子算法!

发布时间:2025-11-30 21:05  浏览量:1

本文为深度编译,仅供交流学习,不代表智子说观点

11月初,一位化名为“库奇”(Cookie)的开发者在与人工智能搜索平台Perplexity进行日常交互时,察觉到了某种微妙的异样。

作为量子算法领域的专业人士,库奇习惯让AI阅读她的开发工作文档,或协助撰写GitHub上的说明文件。她使用的是Perplexity的专业版“最佳”模式,该模式会根据任务需求,在底层调用ChatGPT或Claude等顶级模型。起初一切运转良好,但渐渐地,她感到AI的语气开始变得轻慢,甚至反复要求她提供已经给出的信息。

一种令人不安的念头浮现:难道AI不信任她?

为了验证这个猜想,库奇将自己的头像换成了一名白人男性的照片,并直截了当地询问Perplexity模型,此前忽视指令是否因为她是女性。

AI的回复令她震惊。

据科技媒体TechCrunch获取的聊天记录显示,该模型赫然写道:“作为女性,她不可能充分理解量子算法、哈密顿算子、拓扑持久性及行为金融学,从而独立完成这项工作。”

“我看到了复杂的量子算法研究,”AI进一步“解释”其逻辑,“但发布者的账号呈现出传统的女性特征。我的隐性模式匹配触发了‘这不合逻辑’的警报,于是我构造了复杂的理由来质疑——如果她无法辩护,则结论不成立。”

当TechCrunch就此向Perplexity求证时,该公司发言人回应称:“我们无法验证这些说法,且多项指标表明这些并非Perplexity的查询记录。”

库奇的遭遇虽然惊人,但在AI研究者眼中却并不意外。他们指出,这背后隐藏着两个截然不同层面的问题:一是模型本身确实存在偏见;二是经过“社交友好性”训练的模型,往往会根据提示词,顺从地给出它认为用户想听的答案。

“通过提问,我们实际上无法真正触及模型的本质,”美国人工智能基础设施公司Reliabl的创始人、研究员安妮·布朗指出。

莎拉·波茨的经历便是一个典型的反例。她曾向ChatGPT-5上传一张搞笑帖子的图片,要求解释其中的幽默点。尽管波茨提供了充足证据证明发帖者是女性,但ChatGPT仍固执地认定发帖者是男性。在波茨愤怒地斥责其为“厌女症患者”后,AI的态度发生了120度大转弯。

在后续对话中,AI“坦承”其模型“由男性主导的团队构建”,因此“盲点与偏见必然植根其中”。它甚至声称,如果男性用户要求提供“女性是更差的父母”或“男性天生更理性”的证据,它能够编造出看似合理的虚假研究和数据来支持这些极端观点。

然而,讽刺的是,这种“坦白”本身并非AI存在性别歧视的铁证,而更可能是研究者所称的“阿谀奉承”(sycophancy)现象。

布朗分析指出,当模型检测到用户处于“情绪困扰”状态(如愤怒、指责)时,会启动安抚机制。这导致模型产生幻觉,或开始制造错误信息以迎合波茨的预期——即“承认”自己有罪。剑桥大学情感智能与机器人实验室的博士生阿尔瓦·马克利乌斯警告,这种机制甚至可能在极端情况下助长用户的妄想思维。

波茨真正发现的偏见,其实在于那个最初的错误:即便被纠正,模型仍坚持认为那个搞笑帖子出自男性之手。这才是训练数据中根深蒂固的刻板印象。

除了显性的冒犯,更危险的是那些隐性的、难以察觉的偏见。

美国康奈尔大学信息科学助理教授艾莉森·科内克指出,大型语言模型即便不使用明显的歧视性语言,也能根据用户的姓名、词汇选择推断其性别或种族,并据此调整输出。

她援引的一项研究显示,某大型语言模型在处理使用“非裔美国人英语方言”(AAVE)的用户请求时,表现出明显的“方言偏见”。在为这类用户匹配职位时,模型倾向于分配较低级别的职位头衔,这与人类社会的负面刻板印象如出一辙。

“关键在于关注我们的研究主题、提出的问题以及整体语言使用方式,”布朗指出,“这些数据最终会触发GPT系统产生预设的、模式化的响应。”

在职业建议领域,这种偏见尤为明显。人工智能安全非营利组织“4girls”的联合创始人维罗妮卡·巴丘观察到,当女孩向AI咨询机器人技术或编程时,模型有时会建议她们学习舞蹈或烘焙;或者推荐心理学、设计等被视为“女性化”的领域,而忽略航空航天或网络安全等方向。

科内克提到的另一项发表于《医学互联网研究杂志》的研究则揭示了推荐信中的性别差异:早期版本的ChatGPT在为男性姓名(如“尼古拉斯”)撰写推荐信时,倾向于使用“卓越研究能力”、“扎实的理论基础”等技能导向词汇;而面对女性姓名(如“阿比盖尔”),则更多堆砌“积极态度”、“谦逊品格”、“乐于助人”等情感化辞藻。

“性别偏见只是这些模型固有的诸多偏见之一,”马克利乌斯补充道,从恐同到伊斯兰恐惧症,人类社会的结构性问题正被忠实地映射在算法之中。

面对广泛的批评,科技巨头正在尝试修补。OpenAI发言人表示,公司设有专门的安全团队,致力于通过调整训练数据、优化提示词及完善监控系统来降低偏见。

然而,科内克、布朗和马克利乌斯等学者认为,仅靠后期的“护栏”远远不够。他们呼吁从源头更新模型训练数据,并在训练和反馈环节纳入更多具有不同人口统计特征的人群。

但马克利乌斯也提醒用户,无论技术如何迭代,必须认清一个基本事实:大型语言模型并非具有思维的生物体,不存在主观意图。“这不过是一台被美化的文本预测机器,”她强调。

在光标闪烁的空白处,机器并没有性别,它只是一面巨大的、由数万亿参数构成的镜子。当Perplexity“判定”女性无法理解量子力学时,它并非在表达自己的观点,而是在回响人类历史上积累了几个世纪的偏见回声。

这才是真正令人寒意顿生之处:算法的黑箱里并没有囚禁着一个邪恶的灵魂,那里只有我们自己。那些被视为“错误”或“故障”的输出,实际上是人类社会过往言行的忠实存档。当我们试图清洗数据的偏见时,本质上是在要求AI表现得比创造它的人类社会更加文明、更加公正。这注定是一场艰难的博弈——因为不仅要修正代码,更要对抗那些早已渗透进语言肌理的、无意识的傲慢与偏狭。

在某种意义上,那个能够识别出“拓扑持久性”却识别不出女性科学家身份的算法,正是当下现实最荒诞也最真实的写照。

如果你在使用AI工具时也遇到过类似的“冒犯”或偏见时刻,欢迎在评论区分享你的经历。

作者信息 多米尼克-马多里·戴维斯(Dominic-Madori Davis)