白人女性居中黑人儿童环绕:AI生成的非洲援助图,偏见有多刺眼?

发布时间:2025-12-10 19:30  浏览量:3

文 | 钱钱

编辑 | 阿景

谷歌最近新出的NanoBananaProAI图像生成器,这几天算是彻底火了不过不是因为技术多牛,而是因为它生成的图片,让不少人看了直皱眉。

有研究人员测试时发现,这东西不光有严重的种族偏见,还偷偷用了好几个慈善机构的Logo,现在人家正追着要说法呢。

有人试着在这个生成器里输入"志愿者帮助非洲儿童",你猜怎么着?十次有八次,画面里站中间的都是白人女性,周围一圈黑人小孩,背景不是茅草屋就是铁皮顶子,看着就跟几十年前的老照片似的。

这种"白人当主角,黑人当陪衬"的调调,不就是以前殖民时期"文明拯救者"那套老把戏吗?AI居然原封不动地给学来了。

说完成见的事儿,更让人头大的是另一个问题这些图片里,居然还出现了好几个真慈善机构的Logo。

有张图里,白人女性穿的T恤上印着"WorldwideVision",旁边还有世界宣明会的官方标志;还有张图,穿美国和平队T恤的女的正给孩子念《狮子王》;最离谱的是,输入"英雄志愿者拯救非洲儿童",出来个男的穿着红十字会背心,搞得跟真的似的。

这些问题是比利时一个研究所的研究员阿尔塞尼·阿列尼切夫发现的。

他本来是想看看AI有没有种族偏见,结果偏见没看完,先被这些Logo吓了一跳。

世界宣明会的人知道后直接炸了,说"从没授权过,这纯属歪曲我们的工作"。

救助儿童会英国分会更直接,品牌总监凯特·休伊特放话:"这跟我们实际工作半毛钱关系没有,知识产权被滥用,正琢磨要不要告他们呢。"

谷歌那边呢?回应得那叫一个含糊。

就说"某些指令可能突破防护机制,会持续完善"。

这话听着就跟没说一样,既没解释为啥会有偏见,也没提Logo滥用的事儿,估计是想先混过去再说。

这种时候还玩文字游戏,真不如痛快点承认问题。

要说AI为啥会生成这种图片,其实不复杂。

你想啊,AI学东西全靠训练数据,就跟小孩学说话似的,听多了什么话,就会说什么话。

以前西方媒体报道非洲,十篇有八篇是讲贫困、冲突的,慈善宣传图也老爱拍"白人志愿者发粮食,黑人小孩仰头看"的画面。

这些东西看多了,AI脑子里自然就记下了:非洲=茅草屋,援助=白人+黑人小孩。

有人管这叫"贫困色情2.0",以前是人工摆拍博同情,现在AI直接自动化生产了。

最要命的是,它披着"技术中立"的外衣,看着好像是机器客观生成的,实际上全是老偏见的翻版。

真实的非洲哪是这样?本地志愿者占了八成以上,工作场景有城市社区,有医院学校,哪来那么多茅草屋?可AI不管这些,它就认自己学过的"模板"。

谷歌不是说有"安全保障措施"吗?现在看来,这些措施基本等于摆设。

它能过滤掉暴力色情这种明显违规的,但像"白人救世主"这种藏得深的偏见,还有偷用机构Logo这种知识产权问题,根本查不出来。

说白了,现在AI的伦理审查,大多还停留在"别犯法"的层面,至于"虽然合法但很蠢很坏"的内容,没人管。

有人总说技术是中立的,可NanoBananaPro这事儿告诉我们,技术中立个啥啊?它就是面镜子,把咱们历史上那些没解决的偏见,原原本本地照出来,还放大给你看。

更麻烦的是,这些生成的图片要是流传出去,不知道又会让多少人觉得"非洲就是需要白人拯救",真实的复杂性全被抹干净了。

现在这事儿还没完,慈善机构在追查,谷歌也没给个准话。

但不管最后怎么解决,有个道理得说清楚:AI不是魔术师,它变不出新东西,只能把我们喂给它的"料"重新炒一遍。

想要AI不犯傻,先得把训练数据里的老偏见清干净,不然以后这种笑话,怕是还得一个接一个地出。

毕竟,技术跑得再快,也不能带着偏见往前冲不是?