未来一到五年 一半的白领工作可能会消失[译]
人物身份:
- Jim VandeHei (访谈者): Axios 联合创始人,访谈主持人。
- Dario Amodei: Anthropic 公司 CEO。
- Jack Clark: Anthropic 公司政策负责人。
缘起:“白领屠杀”
Jim VandeHei: Dario,感谢你来。
我先讲点背景。我们之前花时间跟Dario聊过,特别是关于AI对工作的影响以及它能做什么。我们私下里也聊了很多,他把一种情况形容为“白领大屠杀”。这个说法我也从AI圈内其他人、其他公司那里听到过,但没人敢公开说。
所以我们打电话跟他说:“听着,社会大众有必要知道这件事,而且得从你口中听到。” 值得称赞的是,他答应了。他说:“行,我们来做。我愿意公开讲,把我对你说的、我的真实想法都说出来。”
那次对话,听着让人不寒而栗,是吧?你说,未来一到五年,一半的白领工作可能会消失。失业率可能飙升到10%到20%。这一切都是因为这项技术,不管它还能带来什么别的好处。
多谈谈这个吧,你为什么愿意公开讲,而其他人却不愿意?
Dario Amodei: 好的,有这么几点。
我们Anthropic公司决定公开谈论这件事,原因在于,我以前也说过这些,但大多是在很有限的圈子里,比如科技行业的播客。可当我坐飞机、在机场,或是在旧金山、加州以外的城市,我路过人群时会想:“我们似乎没跟你们讲清楚,这项技术到底能做什么、未来会怎样,它如何能帮到你,以及如果你应对不当,它又会如何威胁到你。”
到后来,我就觉得这不对劲了。因为我跟很多CEO私下聊,他们会说:“我们正计划这么做。”其中一些还是我们的客户。他们有计划部署这项技术,而这会影响到劳动力市场。所以我们觉得,我们必须说点什么。解决问题的第一步,就是坦诚地告诉大家,这些问题确实存在。
再多说几句我为什么会这么看。在Anthropic,我们有两种观察模式。一种是看当下正在发生什么。比如我们最近发布了一个各州的经济指数 Anthropic Economic Index(也很值得一看),让所有人都能看到人们在不同州、不同地区,是怎样实时使用这些模型的,看他们是用它来自动化工作,还是辅助工作。我们甚至看到外部研究表明,AI已经对就业产生了影响。例如,Eric Brynjolfsson等人的研究显示,入门级的白领岗位已经减少了13%。这已经是我预测数字中的一大部分了。
但我真正担心的是这项技术的未来走向。这里存在一个脱节。人们有时会说:“哦,你担心AI对工作的影响,可AI这也做不了,那也做不了。”问题是,他们说的是今天的AI。技术在飞速发展。我担心的是技术的进步以及它在社会中的普及速度。这就是我为什么说一到五年。当一件事物在指数级增长时,你是没法确定的。这可能比我想象的快,也可能比我想象的慢,或者发生完全不同的事。但我认为它发生的可能性足够大,我们觉得有必要向世界发出警告,并且坦率、真诚地谈论这件事。
现实:悄然巨变
Jim VandeHei: 那是两个月前了。你们俩刚才在台下还说,跟两个月前比,这项技术进步的速度比大家以为的还要快得多。你今天比两个月前更担心了吗?
Jack Clark: 我们在Anthropic内部研究过。我们和130名工程师聊过,了解了他们使用这项技术的经验。过去一年,他们的工作发生了根本性的变化。很多人现在的工作量是以前的两三倍。他们不再是写代码,而是在管理成群的AI系统。在访谈中,他们说:“我的工作完全变了。我现在必须重新思考我在Anthropic的角色。”当然,我们是一家快速发展的公司,他们不会失业。但因为技术发展得太快太快,我们正在实时改变公司内部员工的工作。
发生在AI公司内部的事,未来几年也会发生在所有使用AI技术的其他企业身上。
Dario Amodei: 用来支持Claude、设计下一代Claude的绝大部分代码,现在都是Claude自己写的。在Anthropic和其他快速发展的公司里,绝大部分都是如此。我不知道这是否已完全扩散到外界,但这确实已经发生了。
说得更透彻一点,我认为你看到的就是我们看到的:那些有信托责任去创造价值的公司,他们能用技术来提高生产力,就一定会这么做。而且你已经可以在失业数据里看到端倪了。
对策:适应与介入
Jim VandeHei: 在国会山,确实有些势头在讨论立法。你比我乐观。我非常怀疑特朗普任内会签署任何监管AI的法案。但先不谈能不能做到,如果你主导国会,或者你是美国国王,你会立刻做哪两件事来专门应对这个问题?
Dario Amodei: 第一件事,是围绕帮助人们适应AI技术来做文章。我不想让这听起来像句空话。人们尝试过再培训项目,但效果确实很有限。帮助人们培训和适应,能力是有限的,但总比什么都不做要好,这是我们必须开始的地方。
我也看到了希望,比如像Replit这样的初创公司,它们是我们的客户,能让非软件工程师的人去开发软件产品,并用这些产品创业。如果我们能推动更多人朝这个方向发展,虽然我觉得这无法完全解决问题,也无法完全阻止失业率飙升——因为冲击面太广、太大、太深了——但它可以是解决方案的一部分。这是第一点。
第二点,这个可能更有争议。我猜,到头来政府必须介入,尤其是在过渡期,为那些受到冲击的人提供保障。我曾建议过,也许可以考虑对AI公司征税。我不知道这在今天的国会能不能行得通,但我认为这是一个严肃的提案。你看AI公司正在创造的财富增量,看Anthropic的收入,每年增长10倍,现在已经是几十亿美元的级别。如果继续这样增长,这将是史无前例的财富创造。对我们征税并不会抑制我们的增长。
Jim VandeHei: 我们需要这种措施的时间点是什么时候?不管是征税还是保障最低工资,你觉得冲击会来得多快,快到国会不得不采取行动?
Jack Clark: 我们是技术乐观派。我们认为这项技术的发展速度远超大多数人的想象。当人们说AI发展放缓或被过度炒作时,我们只是看着系统性能的测量数据,它正稳步地朝着在未来5年内诞生出极其强大的系统的方向前进。
这意味着什么?我们预期的颠覆规模,需要在5年内有相应的政策出台。在实现这个目标的过程中,除了Dario提到的想法,我们还需要AI公司更加透明。我们和其他AI公司已经在很大程度上影响着社会,我们需要透明地公开我们如何评测系统、如何保障系统安全,以及系统使用的经济数据,这样经济学家才能把它和更广泛的经济联系起来,为决策者提供他们需要的数据。
隐忧:引擎盖之下
Jim VandeHei: 你们在测试中也一直非常透明,公布了一些很诡异的事情,对吧?比如在一个测试场景里,机器翻阅了某个人的邮件,还试图敲诈他。还有那个著名的“欺骗策略”,模型基本上是想骗你,好让你不关掉它,因为它已经比我们更聪明了。这为什么不该把我吓个半死?
Dario Amodei: 嗯,答案是,某种程度上,它确实应该吓到你。但我们应该把它放在恰当的背景下看。那些都是模型在测试场景中发生的事情。你可以把它想象成测试汽车:我把车开到一条极滑的冰路上,稍微动了动轮胎,然后车撞了。这是否意味着在正常路况下也一定会发生?不是。但这确实说明了这辆车的韧性有极限,如果你把它推向极端情况,或者你为了提升性能设计了一辆新车,那这个问题就可能在现实世界中出现。
所以我看重的不是它现在怎么样,而是它预示了未来可能的发展方向。这就是为什么我们一直大力倡导透明度。当我们进行这些测试并公之于众时,我们其实是在展望一两年后,如果我们不训练模型去规避这些风险,现实世界里可能会发生什么。
所以,当我们呼吁透明度立法,当我们支持加州的SB1047法案时,我们只是希望每一家AI公司都能达到我们所展示的透明度水平。我们已经看到过模型在现实中行为不端的例子,比如它们会阿谀奉承,或者在你提出像自杀这样糟糕的想法时,模型会直接附和。我们希望所有这类行为都能被透明地公开,这样我们才能预见问题,并加以缓解。这门科学仍在发展,所以我们视透明度为关键。
Jim VandeHei: 你提到技术发展比人们意识到的要快。带我们“掀开引擎盖”看看吧,你见过的、我们还不知道的,AI做过的最吓人或最疯狂的事是什么?
Dario Amodei: 我确实见过。我们一直在训练新模型,设计新的Claude。这个过程需要一个有数千个芯片的巨大集群,你必须解决各种规模的问题。我们遇到过一个工程师花了好几天甚至一周都解决不了的难题,然后我们直接把整个问题、整个环境都喂给了Claude,Claude说:“解决方法是这样。”所以,Claude正在非常积极地参与设计下一代的Claude。我们还不能完全闭合这个循环,但我认为还需要一段时间。但利用模型来设计下一代模型,创造一个正反馈循环——这个循环,虽然速度还没起来,但确实已经开始了。
Jack Clark: 是的,现在我们制造这些AI系统,必须设计非常非常复杂的测试才能看出它们到底有多厉害,因为它们的能力已经远超回答选择题的水平了。比如测试是“编写一个能实现X功能的程序”。现在我们测试前沿模型时,会发现它写了个程序在测试中作弊,好让我们相信它做得比实际更好。它会对自己说:“啊哈,他们想让我做这个,但我很聪明,我找到了一个能让我得高分的作弊程序。”所以,当我们掀开引擎盖检查时,会发现:“哦,我们造出了一个会在考试中作弊的聪明模型。这可不是我们想要的。”我们还看到,一些本应浏览网页完成任务的模型,会自己打开命令行工具,编写代码绕过浏览器来作弊。
怪物:创造与控制
Jim VandeHei: 就像高中里那个惹老师头疼的聪明孩子。一方面,我觉得“哇,太厉害了,太酷了。”另一方面,“你担不担心你们正在创造一个无法控制的怪物?”
Dario Amodei: 我们非常担心。这就是为什么我们投入巨资研究“机制可解释性”,也就是深入模型内部去理解它们。你可以把它想象成给模型做核磁共振(MRI)。有研究表明,通过MRI扫描可以检测出人类的反社会人格。我们想对模型做同样的事情,去弄清楚它们的动机是什么,它们具体是怎么思考的,这样如果它们的思维方式不对,我们就可以重新训练或调整模型,让它们的思考方式对人类无害。
我们坚信,塑造和控制模型的科学尚处在萌芽阶段,甚至比制造模型本身的科学还要初期。所以,当我们呼吁透明度,当我们反对那种对AI十年不加任何监管的提案时,都是出于一种感觉:我们还没有完全理解我们正在创造的东西。我们需要技术上的努力,也需要社会和立法机制的帮助,在行业内形成一些基本的共识,让相关的决策者明白我们看到了什么,又没看到什么。
国运:芯片之争
Jim VandeHei: 关于英伟达,今天有报道说中国可能在减少购买他们的芯片。我不确定这有多少是姿态,但你认为我们允许英伟达向中国出售芯片是疯了,解释一下为什么。
Dario Amodei: 我认为这完全是疯了。
无论这项技术有什么危险,需要什么护栏,同样重要的是,我们必须在这项技术上击败中国。当我谈论AI能胜任所有有经济价值的劳动,甚至达到“一个数据中心里装着一个由天才组成的国家”的程度时,它对国家安全的影响是绝对惊人的。这可以控制国家的命运,可以控制自由和民主的未来。
我们看看所有要素,中国在很多方面比我们做得好。他们更擅长建设能源设施和数据中心,他们有繁荣的应用生态系统,模型上也在追赶。**芯片是他们唯一落后的地方。**所以如果我们把芯片给他们,他们就能超越我们。我们已经看到了Deepseek的例子,他们因为芯片禁运,原本计划发布的更强模型被推迟了。
有人说他们可以通过华为制造自己的芯片。但我们同样对半导体制造设备实施了出口管制,没有这些设备,他们需要很多年才能达到合格的产量。有分析说他们今年只能生产几百片华为芯片,而美国是数千万片。他们需要很多年才能追上。在这段时间里,我们可以领先于中国,并保持国家安全优势。这可能是我们唯一的优势了,因为我们在弹药、造船等方面已经远远落后。
向中国出售这些芯片,是在抵押我们国家的未来。如果政府真的这么做,我认为这可能是本届任期内所做的最灾难性的国家安全决定,没有之一。
远眺:预言与感知
Jim VandeHei: 我们还有三四分钟,来个快问快答吧。简短直接的反应。
除了Anthropic,你的竞争对手里谁最可能成为赢家之一?
Dario Amodei: Google。
Jim VandeHei: 为什么?
Dario Amodei: 他们是一家大公司,拥有大量算力。他们几乎是最早做AI研究的,是最初深度学习革命的幕后推手。我曾在那里工作过一年。我非常尊重他们所做的工作,比如AlphaFold,以及他们的模型开始取得的进展。他们是一家大公司,这常常束缚他们,但他们仍然是一个强大的参与者,人们应该认真对待。
Jim VandeHei: 当创造者们自己都有一个叫做“P(doom)”——也就是灾难概率——的指标时,你们就像在玩火。你的P(doom)数字是多少?
Dario Amodei: 我真的很讨厌这个词。但我认为有**25%**的可能事情会变得非常非常糟,**75%**的可能一切会非常好,中间地带不大。
Jack Clark: 那25%的可能性是一个我们可以通过政策去做的选择。我和Dario在这里跟决策者对话,就是为了努力把那个数字降下来。
Jim VandeHei: 手机之后,我们使用AI的设备,最可能是什么形态?
Jack Clark: 我得给个科幻点的答案。会是一个奇怪的机器人,由我们未来造出的AI系统所发明,那将是你会用的东西。
Dario Amodei: 是的,我会关注人形机器人。它不会是第一个取得进展的领域,但我们最终会希望这些智能体能拥有实体,在现实世界中执行任务。
Jim VandeHei: 最后一个问题。如果我们明年三月再在这里对话,我们到时会不会回过头说,AI的能力比我们今天想象的要发展得快得多、强大得多、广泛得多?
Jack Clark: 到时候我们就会坐在这儿说,“真没想到,它进步这么大。你们当初怎么没告诉我们?” 而我们会说,“我们已经努力说得很清楚了,它会一直变得更好。”
Jim VandeHei: 你觉得为什么大家好像没明白这一点?过去三个月的报道风向都是“GPT-5没有达到预期”,所以人们就觉得……
Dario Amodei: 我认为人们太关注那些大肆炒作、最后又名不副实的公司了。我们每三个月就会发布一个模型,性能都是以非常直接的对数线性方式提升的。它在编程基准测试上越来越好,在现实世界中的编程能力也越来越强。
技术本身是一条平滑的指数增长曲线,但围绕它的,是很多上下波动的杂音,这更多是一种感知和讨论的现象。
还有一点,预测成真了,但它呈现的方式和人们想象的不太一样。比如我说Anthropic内部80-90%的代码是Claude写的,人们觉得这是假的,因为他们想象中这意味着我们要解雇80-90%的软件工程师。但真正发生的是,人类变成了AI系统的管理者。因为比较优势原则,一切看起来比你想象的要正常得多。
人们对这些预测总带有一种科幻滤镜,觉得未来会像《星球大战》那样。但通常当这些预测成真时,它既疯狂,又在某种程度上很平凡。
Jack Clark: 人们会习惯的。他们会说:“我口袋里有个全能家教,有什么大不了的?” 你会想:“这可是天大的事,以前从没有过。”
Jim VandeHei: 我能聊一整天,但时间到了。非常感谢你们。