光鲜背后的黑暗!印度乡村女性日审 800 条违规内容,心理创伤难愈

发布时间:2026-02-07 08:45  浏览量:2

近日,英国《卫报》深度报道揭开了印度AI产业最隐秘的一面:在偏远乡村,数以万计的女性正默默承受着令人震惊的心理创伤,只为给全球科技巨头训练人工智能。

她们的日常,就是在泥墙边的简陋家中,盯着屏幕上一幕幕血腥、暴力、甚至色情的画面,反复分类、标记,成为AI算法背后的“幽灵工人”。

26岁的蒙苏米·穆尔穆,家住印度贾坎德邦一个小村庄。

她的“办公室”,就是家门口一块泥墙延伸出来的石板。屋内传来锅碗碰撞、家人说笑的声音,而她的电脑屏幕上,却是女人被数名男子按倒、摄像机剧烈晃动、尖叫与喘息交织的恐怖场景。

穆尔穆加快播放速度,却不得不完整看完——这是她的工作:为全球科技公司做内容审核,每天要处理多达800条视频和图片,判断哪些属于暴力、虐待或其他违规内容,供AI学习识别。

穆尔穆坦言,刚开始的几个月,她彻夜难眠,闭上眼都是屏幕上那些令人窒息的画面:车祸、家人离世、无法逃脱的性暴力。

母亲只能陪着她度过那些噩梦般的夜晚。如今,她已麻木到“看什么都不再震惊,只剩空白”。但偶尔,梦魇还是会袭来,让她意识到这份工作已经在她心里留下了不可磨灭的痕迹。

社会学家米拉格罗斯·米塞利指出,内容审核的心理风险堪比高危行业,几乎没有人能全身而退。

研究显示,这类工作会导致长期的认知和情感损伤,工人们普遍出现焦虑、失眠、警觉性过高等症状。2025年12月发布的一项针对印度等地内容审核员的研究发现,即使公司提供心理干预,二次创伤依然普遍存在。

据印度IT行业协会Nasscom统计,早在2021年,印度就有约7万人从事数据标注,市场规模高达2.5亿美元,其中六成收入来自美国。

更令人震惊的是,约八成数据标注和内容审核员来自农村、半农村或边缘群体。

科技公司专门在小城市设点,利用低廉的房租和劳动力成本,吸引大量第一代大学毕业生。网络普及让这些乡村直接接入全球AI供应链,无需迁往大城市。

女性在这支队伍中占据半壁江山。公司认为她们细心、可靠,更愿意接受居家或合同制工作,被视为“安全”“体面”。

对许多达利特和阿迪瓦西女性来说,这份数字工作是从农田或矿井走向更干净、稳定、高薪的生活。但在家门口工作的“体面”,也让她们更难质疑心理伤害,甚至被要求“感恩”。

24岁的雷娜·辛格,原本打算当老师,却因急需稳定收入,回到北方邦巴雷利老家,通过第三方公司为全球科技平台做数据标注。

每月工资约330英镑,最初只是筛查短信、识别垃圾信息,枯燥但安全。她自豪地说:“朋友们只知道ChatGPT,我却能看到AI背后的秘密。”

然而,六个月后,辛格被突然调到成人娱乐平台项目,专门清理涉及儿童性虐待的内容。

她震惊到无法接受,向主管反映后却被告知:“你是在做神圣的工作,保护孩子。”很快,她又被要求分类色情内容。“我已经数不清看了多少色情片,几乎是无休止地刷屏。”

辛格的私人生活彻底被摧毁,对性产生了强烈厌恶,甚至与伴侣疏远。

她投诉后只得到冷漠回应:“合同写的是数据标注,这就是数据标注。”最终她选择离职,但一年过去,性依然让她感到恶心和疏离,“有时和伴侣在一起,我像是陌生人,渴望亲密却无法靠近。”

研究者瓦达利亚指出,招聘广告从不说明真实工作内容,只有签约和培训后才揭示真相。

网络上充斥着“零投资”“轻松赚钱”的宣传,诱导大量女性入局。卫报调查的八家印度数据标注公司中,仅两家为员工提供心理支持,其余则坚称“工作不算辛苦,不需要心理健康服务”。

即使有支持,也要求员工主动寻求,许多来自边远或弱势群体的女性,甚至无法用语言表达自己的痛苦。印度劳动法对心理伤害毫无保护,工人们只能默默承受。

更残酷的是孤独。内容审核员被严格的保密协议(NDA)束缚,连家人都不能透露工作细节,违约就会被解雇甚至起诉。

穆尔穆担心家人知道她的工作后,会像村里其他女孩一样被迫辞职、早婚。合同还剩四个月,月薪约260英镑,失业的恐惧让她不敢提心理问题。“找新工作比工作本身更让我害怕。”

穆尔穆只能靠自己疗愈:独自走进森林,坐在树下,感受大自然的宁静。有时捡矿石,有时在家墙上画几何图案。“不知道有没有用,但至少心情好一点。”

印度AI产业的繁荣,背后是无数女性在黑暗中默默承受。她们用自己的痛苦,换来算法的进步,却无人问津。科技的光芒,照不到她们的世界。

作品声明:仅在头条发布,观点不代表平台立场