说不出口的兼职:标记婴儿器官、转录色情片....
凌晨两点,一位住在美国中西部的兼职工作者盯着电脑屏幕,手指悬在鼠标上方。屏幕上是一张她从未见过的照片——一个陌生人的社交媒体账户里,一个孩子的生日派对。她的任务:标记出孩子的年龄、表情、和照片中其他人的关系。
“我不舒服,尤其是要标记孩子的照片。”她说。但培训材料里就有小孩,她别无选择。
她是Scale AI旗下平台Outlier上成千上万名“任务员”之一。
公司说,她是“帮助AI学习的专家”。但她觉得自己更像一个数字时代的拾荒者——在别人的隐私边界上徘徊,做着让自己夜里睡不着的活儿,然后拿着微薄、不稳定的报酬。
《卫报》最新调查揭露, Scale AI正通过旗下Outlier平台,招募数万人为人工智能“投喂”数据。他们对外宣称,这是邀请医学、物理、经济等领域专家“成为 AI 的学习导师”,提供灵活高薪的工作。可真实的任务,却与高端研发相去甚远。
这些来自英美澳等国的零工里,有记者、研究生、教师、图书管理员。他们大多并非游手好闲,而是在AI冲击就业的焦虑下,迫切需要一份额外收入。
“我们很多人都走投无路了。”一位工人说。大家明知可能在训练取代自己的机器,却不得不继续。一名艺术从业者坦言,自己内心充满羞愧与负罪感,因为正在亲手“让自己的梦想被自动化”。

Outlier 的工作远比想象中不堪。
工人们被要求批量爬取Instagram与Facebook账号,标记用户姓名、位置、社交关系,甚至需要按年龄排序照片。为了满足平台对“新数据”的要求,他们必须不断挖掘更多普通人的主页。有7名受访者确认,任务中甚至包含未成年人的公开信息。有人刻意只选用名人照片规避伦理风险,有人坚决不用亲友信息,但更多人只能在规则下妥协。
“普通人根本想不到,远在另一个州的陌生人,正盯着你的社交主页,用来训练AI。” 一位美国承包商说。
更刺眼的是版权掠夺。工人们被明确要求,只能选取人类手绘、绘画作品,严禁使用 AI 生成图——换言之,就是让他们去搜集受版权保护的原创艺术,喂给模型学习模仿。创作者的心血,在未经许可的情况下,成为AI进化的养料。
任务内容时常突破底线。有人需要转录色情音频,有人标注动物尸体、宠物粪便,博士生被要求标记婴儿生殖器示意图,还有描述监狱暴力、警情现场的文字。平台此前承诺“无裸露、无血腥”,但现实屡屡打脸。
他们处在严密监控下。一款名为Hubstaff的工具会随时截屏,记录浏览痕迹;入职要反复参加无报酬面试,不少人怀疑这些问答被直接拿去训练AI;招聘时承诺高薪,上岗后却被调去低报酬项目,典型的“钓饵切换”。

律师格伦·达纳斯正在代理针对Scale AI的诉讼。他估计,全球有数十万人在做类似工作,而他们几乎没有劳动保障。
随着AI模型越做越大,市场对“新的、已标记的数据”的需求也在膨胀。任务员们有时使用ChatGPT或Claude来完成部分工作,也有人怀疑他们正在训练Meta的新模型“Avocado”。
但大多数受访者仍然在Outlier平台上接任务。收入不稳定,偶尔还会有大规模裁员。AI的未来正在加速到来,他们觉得自己没有别的选择。
“我必须对AI保持积极态度,因为另一种选择更糟糕。”一位任务员说,“所以我想,最终事情总会解决的。”
Scale AI的发言人在一份声明中表示:“Outlier提供基于项目的灵活工作,薪酬透明。贡献者自主选择参与的时间和方式……我们经常收到高技能贡献者的反馈,他们很看重这个平台提供的灵活性和应用自己专业知识的机会。”
这些话听起来很美。但在另一端,有人正坐在电脑前,一张张翻看你公开的度假照片,标注你的年龄、你的朋友、你孩子的笑脸。有人在深夜里听着不堪入耳的音频,标记着死去的动物和婴儿的生殖器。他们拿着不稳定的薪水,一边做着自己知道不对的事,一边安慰自己:至少还有收入。
