全员token-maxxing,一场没人敢停的军备竞赛
人工摘要:安全考虑Google禁止大多数员工使用Claude Code或Codex等竞争对手的工具,但DeepMind是个例外,负责Gemini模型和内部应用的几个团队,都在用Claude Code...YC跟不上、Meta的代码安全规矩跟不上、xAI的管理跟不上、researcher跟不上、算力跟不上、估值框架跟不上…以至于硅谷自己都跟不上自己了。
我们去硅谷考察了一圈,发现连造浪的人,都快被浪淹没了。
2026年3月24日早上,我坐在YC W26 batch Demo Day的观众席里,听到第五家公司上台路演的时候,决定不再做笔记了。
不是不重要,而是我意识到,自己记下来的这些东西,可能下个月就过时了。
这一届一百多家公司,做的事情其实高度集中:大约80%都是垂直agent,比如帮律师整理文件、帮客服分发工单、帮HR筛选简历。
如果是在去年10月看到这些项目,我大概率会觉得“挺有想法”。但问题是,这五个月,世界变了。
Claude Code从一个更偏开发者的工具,变成了几乎任何人都能直接使用的界面。Opus 4.6出来之后,整个vibe coding的门槛被压到了地板上。
那些垂直agent,在没有形成业务壁垒之前,今天一个普通工程师,甚至我自己,花一个周末就能做出来,他们已经失去了投资价值。
YC一届项目周期是三个月,这批12月入营,加上前期筛选,等于是5个月前被选出来的“好公司”。而5个月,在现在的AI迭代速度里,已经足够发生几轮范式转换。
2012年我第一次创业,拿到YC的Fly Out(实地面试邀请)的时候,那时候YC在加速器这个赛道上,几乎一枝独秀,选出来的公司往往代表着“下一个方向”。但竞争格局在变,YC这几年感觉反过来了,逐渐变成了一个lagging indicator(滞后指标)。
YC的batch制度,从申请、筛选、入营、打磨、路演,在移动互联网时代运转了十几年,非常成功。但这套节奏是按一个更慢的世界设计的。
回到风险投资行业的这一年半,我大概每个季度都会来一次硅谷,上一次是去年10月。以前每次来,都会觉得变化很快,但这种“快”大多是按月来感知的。
这一次,得按“周”。
有一天晚饭的时候,一个做post-training(后训练)的朋友随口说了一句:
“我发现,硅谷自己都开始跟不上自己了。”
全员token-maxxing:一场没人敢停的军备竞赛
半年前如果有人跟我说,Meta几万名工程师,全在用竞争对手的产品写代码,我会以为他在开玩笑。
但这是真的。整个Meta,全员都在用Claude Code。这不是创业公司,不是某个实验性团队,而是一家市值万亿级别的公司。
代码安全不要了,token预算炸了,排行榜卷起来了,整个硅谷都在不计成本的往AI里砸钱。但砸完之后呢?
先说代码安全。放在半年前,这件事完全不可想象,因为代码是公司的核心资产,你怎么能让外面一家公司的API去碰它?Meta一开始也是这么想的,他们内部做过一个叫myclaw的东西,试图解决这个问题。一个Meta的朋友告诉我,他们做出来了coding产品,但“不好用,没人用”。没人用之后,公司不得不放宽了:只要不涉及客户数据,爱用Claude Code就用。
然后各部门开始开那种“怎么变成AI native组织”的内部会议,做培训,搞考核。代码安全、使用安全,这些过去天经地义的红线,统统被排到了后面,先把效率赶上来再说。
出于安全考虑,Google禁止大多数员工使用Claude Code或Codex等竞争对手的工具,但DeepMind是个例外,负责Gemini模型和内部应用的几个团队,都在用Claude Code。
谷歌自己也不是没有努力:他们推出了内部编码工具Antigravity,今年2月还宣称公司约50%的新代码,已经由AI编写。
但即便如此,DeepMind的人还是在用Claude Code。DeepMind敢这么做,一个重要原因是Anthropic给他们做了私有化部署,毕竟Anthropic的推理和训练,本来就大头跑在谷歌云的TPU上,双方有这个信任基础。但Meta和其他科技巨头可没有这层关系,他们是真的把代码安全扔到一边了。所有人都在赌同一件事:先把速度冲上去。
代码安全只是第一面倒下的旗,第二面是token预算。
在Palo Alto聊的几家AI-native创业公司里,一个工程师一年的token预算,大概在二十多万美元。这个数字本身不稀奇,稀奇的是它意味着一个顶级工程师消耗的AI成本,已经接近于一个工程师的工资了。看起来公司在用AI裁人省钱,实际上总成本可能根本没降,只是把人的成本换成了token成本。
Meta在这件事上又是最极端的。他们搞了一个内部token消耗排行榜:谁用得多谁上榜,末尾的可能被裁员,所以Meta员工甚至在卷一个叫“token legend”的非官方头衔。
但与此同时,Meta今年接连两轮裁员,规模加起来上万人。一边全员用Claude Code冲token量,一边大规模裁人。
这两件事不是矛盾的,它们是同一件事的两面。
我去看了一家C轮公司,技术负责人把Slack打开给我看,全是agent在跑,十几个Cursor agent后台并行,再开一个Claude Code窗口调度。现在程序员圈最流行的焦虑是:如果睡觉之前,不知道我那十几个agent要干什么就很慌。
但生产力真的同等涨了那么多吗?从去年年底开始,有很多顶尖推理引擎、数据库公司的CTO,很兴奋地跟我讲“百倍工程师”“十倍效率提升”,以前60个人需要1年做的事,现在2个人加上Claude Code一周就能搞出来。
我开始也跟他们一起兴奋,但后来我冷静了下来,就会问一个问题:好,效率提升了100倍,那公司的营收增长了100倍吗?或者产品线扩张了100倍?总不能“100倍”的提升,最后就是优化掉多少人吧?
我没有得到正面回答。事实是,100倍的效率提升,落到公司的营收增长上,只体现了50%或者1倍。
差距在哪?现在还没人能说清楚。
“用了这么多token,公司应该基因突变成另外一种公司才对。但到底变成什么,我也不知道。”
有一个做toB销售出身的创始人告诉我,他团队16个人,两个销售,在12个月内从零做到三千万美金ARR,这是全靠AI coding搭出来的。这种案例你确实偶尔能看到。但大多数时候,我看到的是创业公司搭出了更多东西,但这些东西也没有product-market fit(PMF,产品市场匹配)。
硅谷现在很流行用vibe coding去尝试100种做法,看看哪一种能行得通,而不是只试10种。但谁能抓住下一个发展趋势?还很难说。
让我印象最深的一个反例来自Anthropic内部。我问一个Anthropic的朋友,你们自己用agent最痛苦的场景是什么?他说是oncall(即时响应)。
Oncall任务的一个典型场景是:如果Claude的API突然响应变慢、某个模型推理节点挂了、用户反馈某类prompt输出异常,oncall工程师需要快速定位问题根源,判断是代码bug、算力分配问题还是模型本身的异常,然后决定怎么修。
Anthropic自己就是全世界做Coding agent最强的公司,这个场景离他们的核心能力近得不能再近了,结果他们内部的oncall agent还是不好用。
这就是2026年4月的真实状态:蒸汽机已经被发明了出来,但它有时候跑得还没有马车快。关键是所有人都知道蒸汽机终将跑得更快,所以都在疯狂砸钱:代码安全也不管了,token预算爆了,排行榜卷起来了。至于到底什么时候蒸汽机能真的跑过马车?没人知道,但没有人敢停下来等那一天。
因为停下来的代价,可能比烧错token更大。
而且token消耗量,大概率不是线性增长的。这让我想到我以前做自动驾驶的经历:2021年我们在上海,首次实现了连续5小时无接管的自动驾驶。当时觉得是一个重大突破,在那之前,测试车队可能是10台、15台、20台慢慢增加;但过了那个拐点之后,很快就到了100台、1000台。今天的Coding agent正处在类似的阶段。
2021年在上海,滴滴自动驾驶首次实现连续5小时无接管连续行驶,这是国内自动驾驶的一个里程碑事件。时任滴滴自动驾驶公司COO孟醒,与谷歌“无人车之父”Sebastian Thrun的对话,2021。
METR是加州一家专门评估AI编码能力的研究机构。他们去年提出了一个指标:衡量AI agent能以50%成功率完成多长的任务(按人类专家的完成时间算)。2025年3月首次发布时,Claude 3.7 Sonnet的这个数字还是50分钟;到了2025年底,Claude Opus 4.6已经做到了14.5小时。过去两年,这个指标的翻倍周期,从7个月压缩到了4个月。一旦agent的可靠性再上一个台阶,token消耗就不是每年加50%的问题,而是一夜之间上一个数量级。
有一个获得朋友们共识的预测,到今年年底,不少公司(包括科技大厂),实际上只需要20%的人。
xAI团队雪崩之后,造火箭的人开始造模型了
在Mountain View一家牛排馆,晚上九点多,一位曾经跟马斯克工作了很久的朋友,坐到了我对面。聊了三个多小时,我后来回想,整个过程里他似乎没有说过一句马斯克的好话。
一个细节:我问他,你在xAI干了三年,每天的节奏是怎么样的?他说三年来基本都住在公司,所以家里都没怎么布置,甚至连床都没有买。在公司睡的是那种sleeping pod(睡眠仓),跟青年旅馆差不多。我说你现在拿着巨额股权,也都离职出来了,好歹买个床吧。他笑了笑。
xAI的工作强度在硅谷是出了名的,但如今早期团队大概已经走了90%。他们有一个离职群,天天在加人。
导火索是Tony Wu的离开,然后连锁反应,用一位内部人的话说,“别的公司可能需要酝酿半年的高管团队出走,xAI只需要一个月”。有些人在去年10月,就感知到马斯克的不满意了,但没想到这么快全部清洗。
现在马斯克开始从SpaceX和特斯拉调人过来接管xAI,“造火箭的人开始造模型了”。
马斯克的不满,来自于他砸了无数资金和算力,结果Grok一直没能进入一线,但为什么?这是我遇到每个xAI出来的人,都会问的问题。答案其实比我想象的简单,一位朋友说得很直接:团队的战斗力非常强,工作也极其拼命,但制造业的管理方式,可能不适合大模型公司。
我做了八年自动驾驶,对这件事有一些自己的感受。马斯克过去做SpaceX、做特斯拉,本质上做的是系统工程:链路很长,涉及软件、硬件、供应链,每一块都有创新空间,但最终是一个端到端的工程问题。
他擅长的是在这种长链条里,识别出关键杠杆点,然后极限压缩时间线来攻克。火箭发动机级联、复用着陆,都是这种思维的产物。
但在xAI,他做的不像是系统工程。他现在做了三件事:先砸一个全球最大的GPU集群(甚至今天大家调侃说,xAI本来是个neo lab,现在更像是个neo cloud了,变成给Cursor提供算力了),然后给团队定脉冲式的deadline,再亲自拍一些产品特征。这是在抓几个点,不是在做完整的规划。
做自动驾驶的人都知道,一到后期,软件团队、infra团队、硬件团队之间“谁领导谁”就变成核心矛盾。三个方向都需要CTO级别的人来做决策,但没有一个人同时懂这三个领域。好的做法是,创始人虽然每块都不全懂,但知道怎么平衡资源、确定阶段性优先级,这段时间软件优先,下一阶段推给infra。这叫有全局规划。
xAI的问题是没有这个全局规划,只有冲刺。如果压力不那么大,聪明人之间其实能自修复,给他们时间,各个方向会自己找到协作的节奏。但马斯克的超高压管理,加上不充分的全局规划,一压就散了。每个方向的负责人都在保自己的优先级,没有人在做全局的统筹。
SpaceX和特斯拉之所以如此成功,一个被忽略的原因是,在这两个行业里,马斯克基本没有遇到过同等量级的竞争对手,他是跟自己卷的。但AI不一样,AI是连OpenAI都可能被Anthropic偷家的惨烈竞争程度。
有位在Top lab的朋友去年就说有两件事他没想到:第一是竞争这么惨烈,第二是AI时代应用创新的机会这么少,都被模型吃掉了。
Anthropic的崛起,是过去一年AI行业最戏剧性的逆转。也彻底改变了战场焦点:一年前大家还在卷C端用户量和视频生成,现在(阶段性)决定胜负的战场是toB和coding。
当然,xAI的故事,还同时是一个“钱来得太快、太多,会怎样”的故事。
我想今天离开xAI的朋友们,也不会后悔当年加入的决定,xAI可谓是硅谷最快的造富神话。xAI从第一轮几十亿美金规模的融资,到今天与SpaceX合并,成为2500亿美元巨兽,只用了一年的时间。而xAI的11位cofounder,差不多每个人都成为了Billionaire,核心工程师也有大几千万到1亿美金,硅谷钱真的太多了。今天他们如果再创业,就有充分的底气,去做自己感兴趣的方向,而不是赚快钱的事。
焦虑的工程师,更焦虑的researcher
跟工程师聊天,如今有一种奇怪的默契:大家都承认自己不怎么写代码了,但又都假装这没什么大不了,因为自己会成为被AI武装,而干掉那些没有AI化的工程师。
今天80%软件工程师的核心技能,已经被模型替代了,还留着的原因是模型偶尔犯蠢,需要人来盯着。但“盯着”这件事本身,可能很快也不需要了。
更激进一点想:今天所谓的“AI native组织”,听起来很sexy——让每个部门梳理工作流、把能被AI介入的部分线上化、写成skills。但本质上就是在人肉蒸馏自己:你把你的能力变成机器的skill,公司拿到了你的skill,实际上就已经完成AI化了,是否要由此裁员,那是一个道义的问题。今天Meta就是在干这件事。
虽然今天大家都在卷token-maxxing,但你还是能感受到,有一种弥漫在整个硅谷的底层焦虑感。
更让我没想到的是,这种焦虑感,正在往researcher这个群体蔓延。
Researcher是最金字塔尖的人才,它不是泛指“研究人员”,而是在大模型公司(OpenAI、Anthropic、DeepMind等)里,负责模型训练、做算法创新的那群人。他们跟engineer(工程师)的区别是:engineer是“把东西造出来”,写代码、部署、优化性能;researcher是更上游的“想出来造什么”:提出新的训练方法、设计模型架构、跑实验验证假设。
而现在,连researcher的工作本身也在被自动化。这就是DeepMind的同学正在做的事情——用模型去训模型,也是今年硅谷大火的AI自进化。今年淘汰的是engineer(工程师),到年底researcher也将开始被替代。
这件事已经不是新概念了。Andrej Karpathy的auto research(自动化科研)开了一个头,今天各种AI scientist工具、harness框架,都在往这个方向走。但目前大多数的闭环,只到了“发paper”这一层——AI帮你跑实验、写论文,但最终还是人在做判断。
OpenAI、Anthropic、Google这些公司想做的更激进:他们希望闭环直接到模型升级本身,不只是细节改进,而是让AI自己找到下一个范式级的突破。如果这件事能做成,那就是真的在替代researcher。Google DeepMind一年多前就在内部搞这个,让模型自己决定下一步跑什么实验,跑完自己评估哪条路更有前途,然后沿着那条路走下去,这就是模型在训练自己的下一代。
而且researcher更有动机被裁,原因很残酷——因为贵。Researcher全球可能也就几千人,年薪动辄几百万、上千万甚至上亿美元。
“未来的情形可能是,10个人干过去100个人的活,拿20份钱,然后90个人失业。”
而且真正的裁员比表面数字更大。很多公司砍的第一刀,不是在自己的财务报表上,砍的是外包服务商。这意味着印度和菲律宾,这些曾经承接欧美客服、数据标注、财务后台的国家,可能是最先被冲击的。一些发展中国家赖以升级经济的那条“服务业阶梯”,可能正在被AI抽掉。
整个硅谷都在盯着Meta,如果它的实验成功了——营收没掉、效率真上去了,其他大厂会迅速跟进,裁员就从个案变成行业常态。而且裁员有一个残酷的自加速机制:一开始大家不敢裁,怕伤士气;一旦变成常态,就越裁越快、越裁越不心疼。
不过裁掉旧岗位的同时,新岗位也在冒出来。
很多创业公司开始招一种叫“AI builder”的新角色——合并了产品经理、前端工程师、后端工程师于一身。还有一种是合并了数据科学家和机器学习工程师的复合岗,以及合并了写作、投放、运营的内容一体化操盘手。
硅谷公司对这些新角色的需求非常旺盛,但核心难题是:没有人知道怎么招聘他们。你用简历筛不出来,因为这个角色以前不存在,这个人的能力可能全藏在他自己的项目里;你用现场写代码也考不出来,因为核心能力是“审美 + AI使用能力”的组合。所以已经有创业公司在做这件事:根据雇主的需求,自动生成一个模拟环境,让面试者现场用AI工具完成任务。有点像以前的coding test(编程测试),但测的是一种全新的东西。
当AI什么都能做的时候,人的价值正在从“会做什么”,变成判断“什么值得做、什么不该做”的。
一轮融资两个估值,英伟达在每张“牌桌”上都要拿下筹码
前面讲了这么多被替代的人——工程师、researcher、金融从业者。但有一个角色不但没被替代,反而在这场洗牌中变得越来越像幕后老板。
这个看似分布式创新的世界,底层其实在极度中心化。
这个中心就是英伟达。
我原以为卡的稀缺性,在过去一年已经缓解了。确实有一阵子缓了,在2025年中的时候,一些被英伟达扶持的neo cloud(在AI浪潮中崛起的、专门提供GPU算力的“新型云服务商”)融资都不太顺利,有的业务增长乏力,甚至有公司在那个时间点卖身了。但这次来我发现,稀缺性又回去了,而且比上一次更离谱。
一个具体的信号:如果你今天能稳定地提供一个API服务,做到99分位的稳定性,你可以卖官方API价格的两到三倍。
Anthropic的需求暴增后,API中断正在变多,这对很多构建在Claude之上的Agent产品来说,有点问题
以前做Router(路由服务)这种生意,是“我比官方便宜,所以有流量”。现在逻辑完全反过来了:稳定性本身变成了稀缺资源。有一批创业公司就靠这个赚了不少钱,现在硅谷的mini版Coreweave / Nebius正雨后春笋般涌现出来。
而且这次的算力瓶颈,不只是GPU分配的问题。Elad Gil最近写了一个判断我很认同:上游内存厂商(Hynix、Samsung、Micron)的产能扩建周期,至少还要两年。这意味着在2028年之前,没有任何一家AI公司能靠堆算力显著拉开差距。算力约束客观上在强化大模型市场的寡头格局——不是谁不努力,是物理世界的制造周期就是这么慢。
背后的权力结构很清楚:谁有卡谁厉害,谁有卡由英伟达决定。今天上市的CoreWeave、Lambda、Nebius,背后站的都是英伟达。
英伟达的布局比我之前理解的要深。Reflection的投资人和我提到,这家neo lab最早出来融资的时候,是做coding的,然后创始人去见了黄仁勋,黄仁勋跟他说:你别搞coding了,你出来给我做“美国的DeepSeek”,做美国的开源模型,我给你钱给你卡。Reflection就180度大转型了。
美国资本市场也因此出现了一些以前少见的结构:同一轮融资,给两个估值档位。关系好的、进场早的投资人,进低估值那一档;英伟达这种不差钱的老大,和那些晚到的投资人,被挤到高估值那一档,这种结构在国内最近也开始出现。
但英伟达再怎么想去控制分配,也搞不定不存在的东西。
整个美国社会,对数据中心的抗议正在升级。如今全美大约100个数据中心项目正在遭遇阻击,其中40个会直接流产。缅因州刚通过了一项法案,全面禁止数据中心建设。一个城镇批准了60亿美元的数据中心项目,结果半数成员连夜被投票罢免,换上来的新人唯一的目的,就是撤销那个决定。
算力不够了,不是因为产品不够好、用户不够多,是因为物理世界跟不上数字世界的胃口。
这是另一个层面的“跟不上”。
硅谷的估值体系正在重写
先看一个数字。
美国GDP大约30万亿美元。OpenAI和Anthropic目前各自的收入run rate(年化收入)都在300亿美元上下,也就是说,这两家公司各自已经占到了美国GDP的0.1%。如果年底两家都冲到1000亿,再加上云服务和其他AI收入,AI将占到美国GDP的大约1%。从几乎为零到1%,只用了短短几年时间。
这个速度是前所未有的。但诡异的是,增长越快,投资人反而越不知道该怎么定价了——在这么快的增长面前,硅谷的估值框架正在崩塌。
这次跟不少做二级市场的朋友深聊了几轮,一个反复出现的词是“re-rationalization”(估值的理性回归)。
过去几年投AI,大家的估值逻辑是看未来现金流:你今天亏钱没关系,我赌你三年后、五年后的ARR。但现在,这套框架出了问题。
问题出在DCF(现金流折现)这个最基本的估值模型上。正常做DCF,你预测未来10年的现金流,然后加一个terminal value(终值),也就是假设公司之后会稳定经营下去,把剩余价值一笔打包。通常terminal value占整个估值的70%-80%。
但现在有两个东西同时变了:第一,你可能只能预测3年而不是10年,因为3年之后(有时候甚至是1年)这个行业会变成什么样,根本看不清;第二,terminal value更没法算了,它的前提是公司最终会稳定经营下去,但如果AI随时可能颠覆一切,“稳定经营”这个假设就不成立。
我跟一个做二级投资的朋友聊到一个比喻:今天不在AI主航道上的公司,更像是在等一颗“核弹”,你知道它一定会被颠覆,只是不知道什么时候。那你评估的重点,就不应该是“如果不被颠覆会怎样”,而应该是“被颠覆时,应对的速度有多快”。这完全是另一种估值逻辑。
SaaS是第一个被华尔街重新定价的。Snowflake在2023年的时候,按自由现金流算要将近100年才能回本,如今估值已经腰斩,ServiceNow、Workday也是同样的趋势,这只是开始。
甚至反过来说,真正适合用DCF来估值的,可能只剩下头部大模型公司,因为相对来说,他们的未来似乎是向好的方向稳定成长的,他们不会“被炸”,而是在看边界能拓多宽。
过去创业公司招人的说辞是“工资低一点,但给你期权,未来值大钱”。但这套话术的前提是,公司在15到20年后还在、还值钱。如果那个前提不成立了,员工最理性的反应会变成——“别给我期权了,直接涨现金。”
这又会反过来,改变公司的成本结构和融资逻辑。
VC这一端也在痛苦。过去3到6个月,硅谷几乎每家基金都投了至少一家neo lab,那些从著名AI lab出来的研究员,拿着自己的想法融了几亿美金。但现在,大家事后都觉得有点冲动、有点贵。但为什么还是投了?因为如果这家公司真的做出来了,增长会快到让你觉得当初那个估值很便宜。
一位投资人朋友说得很直白:反正要么zero to 100,要么zero to zero,与其投一个贵的A轮赚“辛苦钱”,不如赌一个有无限可能的neo lab的入场券。
过去大家觉得1块钱ARR就是1块钱ARR,不管你是做模型、做应用还是做infra。但现在,这个等号被打破了。
做垂直agent的倍数最低(5倍左右),做通用agent的倍数更高(10倍左右),做模型的最高(20-30倍ARR,例如Anthropic 30B美金ARR,800B美金估值,26.7倍)。一年前我觉得按ARR乘一个统一倍数,来算估值就可以了,但今天这个算法完全不对了。
酸橙树与AI暗杀名单
硅谷正在经历一场深层的安全感危机。
这次硅谷行,我反复听到朋友们在认真讨论同一件事:买比特币、建地堡、给家里装防弹玻璃,他们都不是开玩笑的语气。
最近硅谷确实在流行种酸橙树,因为这种树的枝条上,长着4英寸的尖刺,任何试图翻越的人都会付出代价。
华尔街日报甚至报道了一栋1500万美元的“堡垒豪宅”:混凝土花盆里栽着一圈酸橙树,树丛后面是壕沟,壕沟后面是激光入侵探测系统,前门是3英寸厚的实心钢板配13道锁栓,屋内藏着一个2000磅重门的安全避难室,连景观设计都是防御工事。
为CEO提供住宅安防的企业,创下了2003年以来的最高增长水平。特别是UNH CEO在曼哈顿街头遭枪击身亡之后,这个趋势陡然加速。
然后,枪声响到了AI大佬家门口。
在4月11日凌晨4点,一个穿Champion卫衣的20岁男孩,从德州专程飞到加州,手提煤油罐,站在Sam Altman价值2700万美元的豪宅门前,点燃了汽油弹,扔了进去。
一个半小时后,他出现在OpenAI总部,抄起椅子砸玻璃门,对保安喊:“我要烧了这里,杀光里面所有人。”
FBI从他身上搜出了一份文件。标题是“你的最后警告”。里面列着多名AI公司CEO和投资人的姓名与家庭住址。
两天后的周日凌晨,Altman的家再次遇袭:一辆本田轿车在门口短暂停留,副驾驶把手伸出窗外,朝房子开了一枪,然后逃逸。
这不是孤立事件。三月底,旧金山市中心已经出现过大规模反AI游行,人群举着“Stop the AI Race”(停止AI竞赛)和“Don't Build Skynet”(不要制造天网)的牌子,在Anthropic、OpenAI、xAI的办公室外面发表演讲。参议员Bernie Sanders在国会警告说:“人类可能真的会失去对这个星球的控制。”
跟xAI的朋友聊下来,据说马斯克也是非常担心自己被枪杀的,这在圈子里是公开的秘密。
背后的恐惧其实很朴素:如果AI接管了大部分生产,人不再是经济运转的必要参与者,那过去所有关于“你贡献了多少、你该分多少”的社会契约就全失效了。剩下的只有一个极简的权力结构:谁控制了GPU和电力,谁就控制了一切。阶层不是被拉开了,是被压扁了:一边是极少数人,另一边是所有其他人。
“两年之后的美国大选,最火的竞选主题,肯定是AI与社会的关系问题。甚至会出现AI时代的卢德运动。”
美国的通货膨胀依然很严重,我在加州生活过很多年,从没看到过7字头的油价。恰逢2月底Citrini发了Global Intelligence Crisis(AI末日报告),情景推演了一场因为AI“过于成功”,而在2028年可能导致的经济危机……
尾声
回北京的飞机上,我翻自己这半个月的笔记,发现从头到尾都在写同一个词:“跟不上”。
YC跟不上、Meta的代码安全规矩跟不上、xAI的管理跟不上、researcher跟不上、算力跟不上、估值框架跟不上、社会的心理承受力也跟不上……以至于硅谷自己都跟不上自己了。
但我最后想说的是,一位Anthropic的朋友提到,Dario Amodei在内部说过一句话:在AI的帮助下,癌症在某种意义上已经被攻克了,不是说消失了,而是它有可能变成一种不会死人的慢性病,只是治疗费用还太贵,普及需要时间。
我不确定Dario说的“癌症已经被攻克”是不是过于乐观了,但这次在硅谷,我们看得最多的创业方向就是AI4S、AI for Biotech,很多大模型公司出来的人,不懂医疗,但他们想用AI技术改变这个行业。
这半个月我看到了那么多“跟不上”,这确实让人焦虑。但如果AI真的在几年内让癌症变成慢性病、让材料科学快进二十年,那么这一场“跟不上”,可能是人类发展历史上最大的一次提速。
我家宝宝今年两岁,明年可能会有第二个孩子,他们这一代要面对的那个世界什么样,我现在完全没有想象力去构建。
但我希望,在他们长大的世界里,多一些因AI而被治愈的人,而不是有更多燃烧瓶和枪声,砸向AI从业者的家门口。
Paul Graham 2008年写的Cities and Ambition(市井雄心)里,有这么一段:“尽管在硅谷人们非常尊重智慧,但硅谷传递出的信号是:你应该更有影响力,这与纽约传递的信号并不完全相同。影响力在纽约当然也重要,但纽约对“十亿美金”非常推崇,哪怕这笔钱你仅仅是继承来的。但在硅谷,除了几个房产中介,根本没人会在意这一点。在硅谷真正重要的是,你对这个世界产生了多大的影响。人们之所以在意Larry和Sergey,并不是因为他们的财富,而是因为他们掌控着Google,而Google几乎影响着每一个人。”如今AI令这种氛围,又推向了一个新的高峰。
晚点专栏作者丨五源资本合伙人 孟醒
(文章插图未收录)
https://mp.weixin.qq.com/s/kwErGjX231e2efVWhERzTw
哈希力量文库选录,手机端省略本文网址
