被AI夺走工作的白领们,正在被雇来训练AI夺走更多工作

财经 (1) 2026-03-13 15:38:03

  炒股就看,权威,专业,及时,全面,助您挖掘潜力主题机会!

(来源:DeepTech)

1952 年,库尔特·冯内古特(Kurt Vonnegut)写了一本叫《自动钢琴》(Player Piano)的小说。故事设定在一个工程师用自动化消灭了蓝领工作的近未来,失业者被安排去做唯一剩下的事:维护那些取代了他们的机器。

七十多年后,这个设定几乎成真,只不过被取代的不是流水线工人,而是律师、编剧、设计师和科学家,他们被安排做的也不是维护机器,而是一件更荒诞的事:教机器怎么做自己的工作。

2025 年,据美国就业咨询机构 Challenger, Gray & Christmas 统计,约 5.5 万个岗位因 AI 被直接削减,全年雇主宣布裁员总数达到 117 万,是新冠疫情以来最高。

这些数字让人焦虑,但更让人不适的是这些数字背后还隐藏着一个“吃人”的链条:那些被 AI 挤出原有岗位的专业人士,正在成为 AI 公司最主要的新劳动力来源,他们把自己花了十年二十年积累的职业判断力,拆解成可供机器学习的结构化数据,以便 AI 更好地取代更多和他们一样的人。

《纽约杂志》和 The Verge 在 2026 年 3 月发表的一篇联合报道,让我们窥见了这个现象内部运作的一角。记者采访了超过三十位白领数据工人,发现了一条荒诞的职业链条:

一个内容营销人员因为 ChatGPT 丢了工作之后,又被 AI 面试官录用去训练聊天写营销文案;一个电视编剧发现自己的节目组用 ChatGPT 起草新剧集,转头接了一份给 AI 公司写科幻剧本的数据合同;一个平面设计师眼看 85% 的客户流失给了生成式 AI,最终吞下怨恨,注册了数据标注平台,给 AI 标注她曾经靠手艺赚钱的那类视觉素材。

这些人的共同处境是:他们在旧世界里是受过训练的专业人士,在里却是按秒计酬的零工。

这些人之所以被需要,是因为 AI 遇到了一个靠自己解决不了的问题。

大语言模型的能力来自于在海量文本上学习模式和规律,但公开互联网上的数据正在被消耗殆尽,性能增长开始减速。2024 年前后,行业里开始频繁谈论 Scaling Law“撞墙了”。早期的 RLHF(基于人类反馈的强化学习,Reinforcement Learning from Human Feedback)方法,训练出的模型擅长让回答听上去像模像样,但实际可靠性进步有限。

尤其像法律分析、广告文案、管理咨询、教育方案这些领域,不存在像编程一样的天然验证机制。什么样的投资建议算“好”?一封客服邮件的语气怎样才“恰当”?这些判断本质上依赖人类的专业经验。于是 AI 公司想出了一个办法:既然没有自动化的评判标准,那就花钱让人类专家来“制造”标准。

这就是所谓“强化学习经济”(Reinforcement Learning Economy)的核心逻辑。一整套精密的数据生产流水线被搭建起来:有人负责编写详尽的评分量表(rubric),定义什么叫好的 AI 回答;有人负责审核这些量表是否合理;有人按照量表给模型的回答打分;有人撰写“黄金答案”(golden output),作为模型应该达到的理想示范;还有人用 AI 的口吻一步步写出推理过程(reasoning trace),让模型日后遇到类似问题时有迹可循。

更有一种叫“世界构建”(world-building)的项目形态,要求一群律师或咨询师角色扮演一个虚构企业的完整团队,花几天时间产出上百份会议记录、财务模型和决策备忘录,再把这些材料交给另一组人去拿它们考验模型。

围绕这条流水线,一批公司迅速膨胀。Mercor 是其中成长最快的一个。三个湾区的年轻人 2023 年创办了它,起初做 AI 招聘匹配,后来转向给 AI 实验室供应专家级训练数据。2025 年 10 月,C 轮融资 3.5 亿美元,估值达到 100 亿美元,三位 22 岁的创始人成为全球最年轻的白手起家亿万富翁。同赛道上还有 Scale AI 和 Surge AI 等竞争者。

这些公司都在争相网罗有学位、有经验的专业人才,招聘广告五花八门:厨师、管理顾问、野生动物保护科学家、私家侦探、记者、教师,甚至还有“北美青少年幽默专家”。一位行业资深人士在报道中评价说,这是人类历史上规模最大的专业知识采集行动。

供给侧也如这些公司所愿异常红火。面向应届生的求职平台 Handshake 在 2025 年 8 月的数据显示,平台上的岗位发布量同比下降超过 16%,而每条招聘收到的申请多了 26%。高学历者就业困难加剧的同时,Handshake 自己也推出了帮求职者对接 AI 训练数据岗位的项目。“随着 AI 重塑工作的未来,”该平台在宣传中写道,“我们有责任帮助用户参与 AI 经济。”

参与 AI 经济。听上去很体面。但报道中呈现的实际体验,和这个措辞之间有着巨大的落差。

几乎所有受访者都描述了同一种模式:项目初期待遇尚可,有人类主管可以沟通,工作甚至有些趣味。然后情况迅速恶化,任务量增加,完成时限缩短,薪酬下调。达不到新要求的人被静默“下线”(offboarded)。有编剧谈到,他认识的一些得过奖的导演和制片人不会公开说自己在干这种活儿,但那就是他们目前养家糊口的方式。

有设计师描述了一个为 Meta 做视频标注的项目突然关闭后,数千人被邀请加入一个做同样工作但时薪从 21 美元降到 16 美元的新项目,这个价格已经低于加州等多个州的最低工资。新项目的 Slack 群里删掉了茶水间和互助频道,连工人之间的私信功能都关掉了。没有人知道该找谁问问题。

而这些人连工作时上厕所的自由都没有。Mercor 要求工人安装名为 Insightful 的软件,追踪电脑操作精确到秒,无键盘输入即弹窗质询。被判定为“非生产性”的时间可能被从报酬中扣除。

报道中一位做了多部流媒体剧集的编剧谈到,所有构成“你是一个人”的琐碎时刻,上厕所、给自己倒杯咖啡、因为背痛而伸个懒腰……这些全都被剥夺了,因为那不算工作时间。“工会最初就是为了这些东西而成立的,”她说,“保障工时、午休、假期和病假。而现在这些全部倒退了。”

而在 Surge AI 旗下的 Data Annotation Tech 平台上,情况甚至更不透明。工人们经常连被解雇了都不知道,只是某天登录后发现任务面板空了,客服按钮也失灵了,这种现象被称为“死亡仪表盘”(dash of death)。

但我们也无法把这些问题归咎于某一家公司,因为根源在于整条供应链的运转方式。

AI 实验室发现模型在化学领域薄弱,就向数据供应商下单找化学家。化学家产出一批数据,供应商送去实验室,项目暂停,等实验室看效果。也许实验室调整了数据需求,也许换了供应商,也许突然决定要的不是化学家而是生物学家了。

一位数据公司高管在报道中承认,AI 实验室自己经常也不确定到底要什么,而不确定性一路向下传导,全部由最底层的工人承担。为了应对这种波动,数据公司刻意维持庞大的待命劳动力池。反正工人是独立承包商,不需要医保、带薪假或失业保险,多招一个人的边际成本几乎为零。

严格的保密协议又给工人加了一层枷锁。他们不知道自己在给哪家公司干活,合同里只会写“客户”,也不被允许透露工作细节。他们无法积累可迁移的职业声誉,无法用过往经历去议价。

一位在数据行业工作超过十年的管理者对此有句话说得很直接:沉默本身就是雇主的定价权。只要工人不能证明自己做过什么,他们就永远没有办法要求与能力相称的报酬。他们唯一的权力,就是继续排队。

排队的人越来越多。一个项目结束后,工人们涌向 Mercor、Alignerr、Micro1、Handshake……这些平台永远在招人,用 AI 面试官筛选,招聘成本趋近于零。一个受访者说她申请了几十个项目,只拿到了三个。

这里面有一个工业革命以来反复出现的结构性故事。

麻省理工学院经济学家 Daron Acemoglu 用英国织工的遭遇做过类比:机械化之前,织工是自雇的手工业精英,掌控自己的时间和技艺。纺织机出现后,他们被迫进入工厂,接受更长工时、更低报酬和管理层的密切监视。技术不仅夺走了旧工作,还催生了一种将所有权力集中在资本一方的劳动组织方式,直到几十年的工人运动和劳动立法才设了限。

加州是目前美国唯一产生一些阻力的地方。过去半年,至少三起集体诉讼指控 Mercor 将工人错误归类为独立承包商。Scale AI 和 Surge AI 此前也面临类似诉讼,Scale AI 正在和解中。原告律师的核心论点是:鉴于公司对工人行使的“非同寻常的控制”,例如指定平台、安装监控、设定详细操作流程等,将他们定义为独立承包商在法律上站不住脚。

2026 年 2 月,美国劳工部发布了一项新的拟议规则,试图厘清雇员与独立承包商的界定标准。但这些法律框架能否追得上这种全新劳动形态的扩张速度,仍然是个问号。

而且,正如报道中一位律师指出的,数据标注工人和 Uber 司机相比有一个更大的弱势:Uber 司机必须在某个城市物理存在才能接单,可以本地化组织和维权;数据工人完全可以被远程替换,如果美国工人争取到了更高报酬,公司转头就能从其他国家找到更便宜的人。世界银行估计全球有 1.5 亿到 4.3 亿数据劳动者,大量分布在全球南方国家。

但即便这些劳动权益问题都得到了妥善解决,也无法改变一个更根本的事实:每一个具体的数据训练项目,都在朝着自身消亡的方向推进。你教 AI 做法律分析,AI 学会了,你的法律分析数据就不再被需要。你帮 AI 掌握了语言学中的冷门分支,那个分支就从需求清单上划掉了。

报道中有一位语言学硕士,做了一年的 rubric 工作。到 2025 年末,他发现,不管他问模型多冷门的理论和濒危语言,模型都能找到正确的论文。他从每周提交三四个 rubric 变成勉强完成一个。项目结束后,他已经五个月没有找到新工作。

Marketing AI Institute 的 Paul Roetzer 用一个场景来描述这种循环的终极形态:假设 AI 实验室想自动化初级会计工作,它花高价雇一百名资深注册会计师,以远高于市场的时薪来微调一个模型,直到模型表现得和普通人一样好,甚至超过专家。

“然后,那个岗位就被自动化了。”整个行业虽然仍在膨胀,但对每一个具体的人来说,自己拥有的那份技能被完整提取的那天,就是自己被“下线”的日子。

这就构成了当前 AI 劳动经济中最残忍的循环:系统需要你的专业知识,但需要你的专业知识,恰恰是为了不再需要你。人花十年二十年练就的判断力,在这个系统里变成了一种一次性消耗品,被提取,被用来训练模型,然后被丢弃。

我们当然可以认为,AI 时代,一些人类独有的特质会更有价值,例如品味、判断力、创造力和同理心。Mercor 的 CEO Brendan Foody 自己也说过类似的话,“AI 自动化了 90% 的经济之后,人类就成了剩下 10% 的瓶颈,每一单位人类产出的杠杆效应是以前的十倍。”这话在逻辑上没有错。

问题在于,它描述的是一个赢家通吃的世界:对顶尖的那一小撮人来说,他们的判断力确实可能身价倍增;但对绝大多数普通专业人士来说,这种说法近乎苛责。不是每个律师都是最高法院的出庭大律师,不是每个设计师都有不可替代的美学直觉,不是每个编剧都能写出让 AI 望尘莫及的剧本。

大多数人的专业能力,恰恰处在“足够好、但可以被标准化提取”的区间里,好到可以被用来训练 AI,却又没有好到 AI 学完之后仍然需要他们。数据标注行业的残酷之处在于,它精确地利用了这个区间。

那些被招去写 rubric 和 golden output 的人,是因为他们够专业才被选中的;但也恰恰是因为他们的专业程度可以被拆解成规则和示范,他们的知识才具有被提取的价值。真正无法被拆解的那种顶级判断力,它确实存在,但它从来不是多数人拥有的东西。

把“人类特质会更有价值”当作一种普遍的职业建议,多少有些社会达尔文主义的味道:它假设每个人都能成为那个不可替代的人,而事实上,大部分人只是在做自己力所能及的、体面的、有尊严的工作。这些工作正在被系统性地拆解。

Anthropic 自己最近发布的一项研究提供了一个有用的框架来理解这种处境。在题为“AI 的劳动市场影响”的报告中,研究者发现 AI 的实际采用率远低于其技术上的可行替代率。也就是说,AI 在很多领域已经有能力取代人类完成任务,只是尚未全面部署。

这之间的时间差,既是缓冲,也是倒计时。数据标注行业的故事展示的正是这段缓冲期里发生的事:不是大规模的突然失业,而是大量受过良好教育的人发现,自己唯一能找到的工作就是参与训练 AI,在极不稳定的条件下,用自己最值钱的东西换取临时性的报酬,同时加速这份报酬最终归零的进程。

关于政策应对,目前讨论最多的是 AI 导致大规模失业后该怎么办,重新培训、全民基本收入等等。但另一种可能同样值得关注:也许不会出现骤然的大规模失业,而是越来越多的具体任务被 AI 接管,人类被重新分配到生产流程的其他环节,一部分人修改 AI 产出的半成品,另一部分人编写 rubric 来改进它。

这类工作天然是间歇性的,意味着它将由独立承包商来完成,而现行法规对这类工人几乎没有保护。Acemoglu 认为,我们可能需要某种类似工会的集体组织,来防止大公司用分而治之的策略持续压低数据价格。“如果没有适合数据经济的法律基础设施,”他说,“许多生产数据的人将会被低薪雇用,或者用一个更重的词,被剥削。”

最令人唏嘘的,或许是那些已经走到这条路尽头的人。Katya 在被邀请加入 16 美元时薪的 Nova 项目后,决定不干了。她去应聘了一家咖啡店。“至少在咖啡店拿最低工资的时候,你还有几个可以聊天的同事,有一个假装在乎你的老板。你知道下周你的班表是什么样的。”这不是她读研究生时想象中的职业转型,但她觉得做咖啡师至少比被算法监控着抢活儿干更有尊严。

然后她的手机响了。一个之前暂停的项目又开始了。

这个结尾几乎可以成为我们这个时代的寓言:一个合格的、有经验的、受过高等教育的人,在“训练 AI 取代自己”和“去咖啡店打工”之间来回弹跳。这不是任何单一公司的恶意,Mercor 也好,Scale AI 也好,Surge AI 也好,它们只是供应链上的中间节点。

真正的问题在于,当前的技术发展方式和劳动制度安排,让“人类专业知识”变成了一种一次性消耗品:被提取,被用来训练模型,然后被丢弃。

如今 AI 行业喜欢谈论“人在回路中”(human in the loop)的对与错,但从这些数据工人的经历来看,在 AI 真正接管完整工作回路、社会的生产分配方式发生重大变革之前,回路里的他们更像是一根正在燃烧的蜡烛,它的存在价值,就在于把自己烧完,然后“退出”。

问题是:烧完之后怎么办?到目前为止,没有人给出一个像样的答案。

参考资料:

1.https://nymag.com/intelligencer/article/white-collar-workers-training-ai.html

运营/排版:何晨龙

THE END