主题
最近这一轮 AI 焦虑,很容易把人带偏。
很多讨论都在问:哪些岗位会先被替代?
我更想问另一件事:如果 AI 持续降低信息、决策和执行的摩擦,经济里什么会先变?
我越来越觉得,先变的不是岗位名称,而是交易发生的方式。岗位替代只是表面,底下更深的变化,是平台的护城河、组织的边界,以及价值如何在交易链条里重新分配。
一旦换成这个角度,最近几组看起来分散的信号就能串起来了。
Citrini Research 的《2028 Global Intelligence Crisis》 虽然是一篇刻意写成“未来回望”的思想实验,但里面有个词很抓人,叫 Ghost GDP。它描述的是这样一种局面:产出还在增长,利润还在增长,可收入没有顺着原来的路径回到更多人手里,于是“统计上的经济”和“体感上的经济”开始分家。
Andrej Karpathy 做的 US Job Market Visualizer 又把另一层焦虑放大了。它把美国劳工统计局的职业数据压成一张热力图,让抽象的“AI 会冲击就业”突然变得可视化、可传播、也更容易让人代入自己。
同时,OPC、个人 Agent,以及像 OpenClaw 这种“运行在你自己设备上的 personal AI assistant”,也在不断冒出来。它们共同指向的,不只是“机器更能干活了”,而是很多原来必须靠组织分工、平台入口和中间环节才能完成的步骤,开始被压缩了。
焦虑为什么会这么重
这轮焦虑之所以强,不只是因为模型更强了,也因为它正好撞上了增长放缓的体感。
当机会在收缩,任何“一个人顶一支团队”的故事都会被无限放大。OPC 叙事之所以传播得快,不是因为每个人都已经做到了,而是因为它给出了一种新的参照系:原来你不一定非要加入一个越来越大的组织,才有资格参与竞争。
Karpathy 那张图又进一步放大了这种体感。人原本最怕的,不一定是坏消息本身,而是不确定。可一旦抽象的威胁被做成一张职业热力图,焦虑就从模糊的感觉变成了具体的坐标。你会忍不住去找自己的位置,也会忍不住拿自己和别人比较。
你突然会觉得,自己不是在看一篇产业分析,而是在看职业版天气预报。
这就是为什么大家会焦虑。因为原来模糊的威胁,被压成了可视化、可传播、可转发的坐标。
但如果讨论只停在“哪些岗位分数高、哪些岗位分数低”,其实还是停在表层。更底层的问题不是“哪个岗位先消失”,而是:当交易中的摩擦被系统性压低,原来依赖这些摩擦存在的岗位、平台和组织,会先发生什么变化?
经济的最小单位,不是岗位,是交易
如果把视角切回经济,这件事会更清楚一点。
经济的最小单位不是岗位,而是交易。你买一杯咖啡是交易,你把劳动力卖给企业换工资也是交易。家庭把劳动力卖给企业,企业把产品和服务卖回家庭,你的支出是别人的收入,别人的收入又会变成下一轮支出。
所以经济不是什么抽象的大词。它就是无数交易首尾相接的总和。
很多人一提到经济,脑子里先浮出来的是 GDP、利率、失业率。但换个角度看,你会突然发现很多商业模式其实没有那么神秘。它们赚的并不只是“创造了一个新价值”,也是在一层又一层地替人处理麻烦。你不会比价,平台替你比;你嫌流程烦,中介替你跑;你不懂复杂规则,顾问替你解释;你懒得取消自动续费,订阅公司就顺手把钱收走。
换句话说,很多利润,本质上是在给人的局限定价。
而一笔交易也不是“付款成功”那一刻就结束了。它前面有发现、比较、筛选、判断,后面有履约、售后、担责。过去这些环节都可能有人收一次过路费。只要人的时间有限、耐心有限、注意力有限,这些费用就有存在空间。
这也是为什么 Ghost GDP 这个概念会让人后背发凉。真正的问题不是机器会不会干活,而是如果企业侧用机器做出了更多产出,但收入没有再以相近的规模流向人,需求端就会变薄。机器不会买房,不会办婚礼,不会报补习班,也不会凌晨 1 点情绪不好下单一堆根本不需要的东西。它能创造输出,却不会像人那样把收入重新花回经济里。
一旦把问题切到这里,你看 AI 的角度就会变。它首先不是一台“替代谁”的机器,而是一套不断降低交易摩擦的基础设施。
从纸币到电商,从搜索引擎到本地生活平台,过去几百年的很多商业创新,本质上都在干同一件事:让信息流动更快,让供需匹配更快,让交易更容易发生。
AI 当然也在干这个。
只是它不只是润滑剂。
AI 不只是润滑剂,它还会放大需求
很多人直觉上会觉得,AI 提高效率之后,总资源消耗应该下降。这种直觉很自然,但它经常忽略了一个关键前提:效率提升,降低的是每单位产出的资源成本,不是自动降低全社会的总需求。
这里有个很经典的参照,叫 杰文斯悖论(Jevons Paradox)。如果不解释,这个观点听起来像在抬杠。蒸汽机更省煤了,英国怎么会反而烧更多煤?
关键就在这里:更高的效率,不等于“同样的事情用更少资源做完然后就收工”,更常见的结果是“因为更便宜了,于是更多人开始做、做得更勤、做到更多场景里”。Yale 的 Energy History 项目 在回顾 《The Coal Question》 时,也把 Jevons 的意思概括得很清楚:更高的能效未必减少能源需求,反而可能刺激更大的总使用量。原因不神秘。瓦特改良蒸汽机之后,单位动力更便宜了,煤不再只是少数场景里昂贵的燃料,而成了更多工厂、矿山、运输系统都用得起的通用动力。于是单台机器也许更省煤,但机器数量、开工时间、应用范围一起膨胀,最后总耗煤反而上去了。
今天的 AI 很像这件事的重演。
根据 Stanford HAI 的 AI Index 2025,达到 GPT-3.5 水平的模型,推理成本从 2022 年 11 月 每百万 token 20 美元,降到 2024 年 10 月 的 0.07 美元。大概一年半,降了 280 多倍。另一边,国际能源署 IEA 在 《Energy and AI》 里给出的判断是:全球数据中心的用电,到 2030 年 会升到约 945 TWh,比现在翻倍还多。
这两件事放在一起看,意思很直接。
Token 更便宜,不会自动把 AI 的总消耗打下来。更常见的结果,是人们会把 AI 用到更多地方,发更多请求,跑更多自动化流程,催生更多过去根本不存在的需求。
所以 AI 不只是让原有交易更顺滑。它还会像蒸汽机那样,把原本不会发生的交易也推出来。
润滑剂这个比喻只说对了一半。
另一半是油门。
Agent 正在吃掉信息摩擦
如果说这一轮变化最先打到哪,我会选 信息摩擦。
过去很多平台和中介的优势,本质上来自信息不对等。电商平台知道哪里有货,租房平台知道哪里有房源,中介知道谁靠谱、谁愿意接单、谁能给更低的价。
这件事不是今天才开始的。过去几百年的商业史里,其实有一条很长但很少被明说的主线:信息摩擦一直在下降。
最早,很多交易靠熟人网络和地理位置。你住在哪个社区、认识谁、常去哪个市场,几乎决定了你能接触到什么信息。后来有了报纸分类广告、黄页、电视广告,信息传播变宽了,但搜索成本还是高。再后来有了搜索引擎,你第一次能主动找信息,而不是等信息来找你。再往后是电商和本地生活平台,把“发现商品”和“完成交易”捆在一起。社交媒体又进一步把分发逻辑改了,很多人不需要先去官网,不需要先找品牌,先看口碑、看 KOL、看评论、看帖子。
这一路的共同效果,就是搜寻成本不断下降,信息不对等不断被压平。
所以真正理解这轮 Agent 变化的方式,不是把它看成一个突然出现的外星物种,而是把它看成信息摩擦下降这条大趋势的下一站。搜索引擎让你更容易找到网页,社交媒体让你更容易找到人,Agent 则开始让你更容易找到答案和行动路径。它不只是帮你搜,它还帮你比、帮你筛、帮你执行。
这会逼着很多靠信息摩擦赚钱的人重新选边站。
过去最聪明的一批中介,往往靠的是“我比你知道得多”。我知道哪里的房源更真实,我知道哪家工厂能接急单,我知道哪个 KOL 带货更准,我知道哪条投放路径更便宜。这些人当然不会一夜消失。但他们如果继续只卖“我知道”,日子会越来越难过。因为 AI 最先压掉的,就是“知道在哪里”“知道该看什么”“知道该问谁”这种搜索和匹配层的价值。
真正聪明的人,会慢慢从信息差转向服务差。
什么意思?不是卖“我知道哪家最好”,而是卖“我帮你把这件事做完”。不是卖“我知道行情”,而是卖“我替你谈、替你跑、替你承担售后和责任”。不是卖“我比你更会搜”,而是卖“我能把复杂问题打包成一个你敢买单的结果”。
因为信息越来越便宜之后,还能持续收费的东西,通常只剩几种:执行、信任、担保、合规、定制化,以及出了问题以后谁来负责。
再看消费者这一侧。OpenClaw 在官方 FAQ 里把自己定义成 “你运行在自己设备上的 personal AI assistant”。这句话真正重要的地方,不是“你多了一个聊天窗口”,而是你开始有一个长期站在你这一边的代理人。你不再需要亲自打开十几个 App 去比价、筛选、搜评论、看退款规则,你的 Agent 会先替你把这些脏活干完。
这和过去的推荐系统也不一样。推荐系统本质上还是平台替平台自己做推荐,它优化的是平台内部的停留、转化和抽成。个人 Agent 优化的对象却开始偏向用户自己。它不会天然忠于某一个流量池,也不在乎你是不是某个平台的“高价值用户”。它更像一个站在你这边的买方代理。
这对平台最要命的地方在于,机器没有主屏幕,没有路径依赖,也没有品牌忠诚度。它不会像人一样,因为懒、因为熟悉、因为顺手,就默认点开某个外卖平台。它只会在所有可选项里,持续寻找费用更低、配送更快、约束更合适的那一个。
过去“守住入口就守住利润”的逻辑,会开始掉漆。
Agent 也在吃掉决策摩擦
但如果只把 AI 理解成“更会搜信息”,还是低估了它。
Agent 吃掉的,不只是信息摩擦,还有 决策摩擦。
现实世界里有很多问题,难点不是没有信息,而是信息太多、约束太多、时间太少。路线怎么排,库存怎么补,车怎么调度,风控规则怎么设,目标怎么在几十个约束里平衡,背后都是高维约束下的取舍问题。
这里顺手解释一下所谓的 NP 问题。它不是什么故作高深的术语,你可以先粗暴理解成这样:给你一个候选答案,验证它对不对,通常不算特别慢;难的是,在海量可能的组合里把那个真正最优的答案找出来。MIT 的算法课把旅行商问题(Traveling Salesman Problem, TSP)当成最经典的例子之一:城市一多,想精确求出那条绝对最短的环路,就没有已知的高效通用解法。MIT OCW
这类问题真正麻烦的地方在于组合爆炸。你多加一个点、多一辆车、多一个时间窗,可能不是多一点计算,而是把整个解空间直接炸大一个数量级。于是商业世界里最值钱的,往往不是完美答案,而是及时的次优解。
1. 物流配送:TSP 与 VRP
这是最经典,也最有商业价值的一类组合优化问题。一个快递员手上有 50 个包裹,问题看起来像是在问“先送哪家后送哪家”,其实远不止如此。你不仅要决定顺序,还要同时考虑车辆数量、每辆车载重、司机工时、客户收货时间窗、路况变化、临时插单,以及不同仓或站点之间的衔接。纯数学上,50! 这种量级已经大到根本不可能靠穷举去找最优路线。
所以 Google 才会把这件事做成 Route Optimization 这样的标准产品,直接去处理 routes、vehicles、deliveries、time windows、capacity 这些现实约束。研究界也早就在往这个方向推。像 Attention, Learn to Solve Routing Problems! 这类工作,讨论的就是怎么用注意力模型和强化学习,去学出足够强的路由启发式。
这件事的经济意义很朴素。路线排得更准,全社会的空驶率、等待时间、燃油和电耗就会下降。每一件商品背后的物流成本,也会被压低一点。你看到的是骑手少绕了一条路,经济看到的是交易摩擦又薄了一层。
2. 电网调度:机组组合问题
电网调度更像一个实时版的大型平衡游戏。城市用电在变,风电和太阳能出力也在变,哪些发电机组该开、哪些该关、储能怎么配、负荷怎么削峰,背后牵的是一连串强约束:不能跳闸,不能浪费,不能让频率乱跑,也不能让备用容量过低。
美国能源部在 Artificial Intelligence for Energy 和 AI for Energy 里都把这件事点得很清楚:AI 可以用来做更好的 load forecasting、state estimation、电网运行优化和可再生能源波动管理。DeepMind 更早就把机器学习用在了风电预测上,官方写到系统可以提前 36 小时预测风电输出,并帮助优化向电网做出的交付承诺,从而把风电资产价值提升约 20%。DeepMind
这背后的经济意义,比“节省一点电费”要大得多。电网一旦调得更准,减少的是峰值时段的脆弱性、停电损失和发电侧的无效空转。它压低的不是某一家公司的成本,而是整座城市维持稳定运行的成本。
3. 供应链补货:多级库存优化
库存问题看起来很土,其实特别硬。像沃尔玛、亚马逊这样的体系,在全球有大量仓库、门店和转运节点。每个点该存多少货?什么货该放前仓,什么货该压主仓?存多了,资金被压住,仓储和损耗成本上来;存少了,缺货、断货、转单,机会成本和品牌损失都会冒出来。
AWS 在 Supply Planning 的官方介绍里写得很直白,这类系统要回答的是:该订多少、什么时候订、库存放在哪里。更进一步,AWS 也在 AI-powered Demand Forecasting 这类内容里强调,需求规划不能只看历史销量,还得把订单、库存、发运、生产、供应和销售这些数据一起放进来。
这件事的经济意义也很直接。库存优化不是单纯“省点仓库钱”,而是在提高资本周转率。货不积死,钱就不会死。对宏观来说,这相当于让资本这台机器转得更快。
4. 金融风控:组合优化与反洗钱
金融风控是另一种更隐蔽的组合问题。你面对的不是一个清爽的 Excel 表,而是几千万、几亿条账户、设备、交易、地点和行为记录。问题往往不是“有没有风险”,而是“哪一串关系组合起来最像风险,而且现在就值得拦下来”。
这也是为什么图方法会越来越重要。AWS 在 用 Graph Neural Network 检测金融交易欺诈 的技术博客里,专门解释了为什么 GNN 适合这类问题:因为交易欺诈不是看单点,而是看关系。AWS 的 Fraud Graphs on AWS 也直接把 anti-money laundering、credit card fraud 这些场景列成图数据库和图算法的典型用途。
这件事的经济意义,不只是抓坏人。它本质上是在降低整个金融系统维护信用和稳定的成本。你越早发现异常链路,越能减少系统性风险,越能避免后面大规模的人力审查和补救。
所以说到底,AI 不是因为“更聪明”才在这些场景里有价值,而是因为它更适合在高维约束下持续给出可执行的近似最优解。传统方法追求的是“绝对最优”。现实商业更在乎的是“现在就能用,而且误差在可承受范围内”。
Google 现在已经把路由优化做成标准产品,AWS 把库存和供给侧的决策做成了持续运行的规划系统。这些产品真正说明的,不是 AI 会算题,而是过去依赖大量人肉经验、表格和会议来完成的判断,现在正在被压缩成持续运行的优化系统。
更刺眼的例子,其实来自五角大楼。美国国防部在 2024 年 8 月 9 日 的一份 AUKUS 官方通报 里写得很直白:AI-enabled sensing systems 被用来压缩从“发现敌方目标”到“决定如何响应”再到“实施响应”的时间;其中一次演练里,信息被送到战术行动中心后,一名 AI officer 在人工监督下触发了一次 simulated strike。到了 2024 年 9 月 26 日,另一份 AUKUS 防长联合公报 又把这件事说得更短,也更狠:三国已经演示了可以用 AI algorithms 去 find and fix targets for strike。
如果你非要把它翻成大白话,那就是:AI 已经被拉进了“找目标、定响应、触发打击”这条链路。它还不是完全独立拍板,但离“AI 决定导弹往哪飞”这种公众想象,已经没有很多人以为的那么远。
你可以不喜欢这些场景,但你很难否认一个事实:在高维信息、复杂约束、强时效性的环境里,AI 已经不只是“给建议”,而是在逐步接管原来由中层分析、调度、协调来完成的判断工作。
Agent 也在吃掉执行摩擦
如果说前一层是“帮你知道该怎么做”,那再往下一层,就是“帮你真的把事情做起来”。
信息更透明、判断更快之后,下一层被压缩的就是执行成本。
这一点在营销场景里已经很明显了。Okara 这个例子值得展开,不是因为它做得多大,而是因为它把一件原本分散的事情,突然压缩成了一个很刺眼的产品定义。它推出了一个叫 AI CMO 的东西,月费 99 美元。你给它一个网站地址,它就开始接管一整串营销动作:做 SEO audit,生成内容,盯 Reddit 和 Hacker News,替你在 X 上持续发声,连 AI 搜索优化也一起算进去。
这件事真正扎人的地方,不是价格本身,而是它在暗示一件事:过去一个早期团队想把增长跑起来,通常要拼几种能力,有人懂 SEO,有人写内容,有人做社群,有人盯分发和反馈,运气不好还得再找外包 agency。现在,这几层被重新包装成了一个统一入口。它卖的不是某个单点功能,而是在试图接管“发现渠道、分析机会、生产内容、分发内容、持续优化”这一整条链。
Okara 本体其实也不是一家单纯的营销软件公司,官网给它的定位是 private AI chat 加上一个 Agent store。也就是说,它一边做多模型、私有对话和工作台,一边把垂直任务拆成一个个可订阅的 Agent 能力。
它现在官网上能直接看到的代表性能力,一个是 SEO Agent,一个是 Reddit Agent,再加一个 X Search。SEO Agent 不是只给你一个分数,而是让你输入网站地址后,自动跑技术审计、页面检查、反链快照、SERP 快照,还会给你一个 GEO 可见度面板,去看你的品牌在 ChatGPT、Claude、Perplexity、Gemini 这些回答引擎里出现得怎么样。官网写得很明白:它会每天推 5 个具体、可执行的修复建议。Reddit Agent 更直接,它让你输入网站后,自动去找哪些 Reddit 讨论串适合你的产品,然后生成看起来更像真人、而不是广告机的评论。再加上 X 这一层,你就能看出 AI CMO 为什么听起来有冲击力了:它不是一个功能点,而是在试图把“发现渠道、分析机会、产出内容、分发内容、持续优化”整条增长链条打包。
这件事为什么重要?因为它把过去一个早期创业团队常见的增长配置压缩了。以前你至少得有一个懂 SEO 的人,一个内容写手,一个社区运营,最好再来个会盯社媒和舆情的人。现在,这些动作开始被切成一组持续运转的 Agent。你当然还需要人来定品牌和判断边界,但“找机会、做分析、提建议、起草执行”这几层,已经开始被自动化吞掉。
尤其是 GEO,也就是生成式引擎优化(Generative Engine Optimization),现在已经有了正式论文,原始论文 讨论的就是:在 ChatGPT、Perplexity、Google AI Overviews 这类回答引擎里,内容该如何被看见。
放回全文里看,信息摩擦解决的是“先帮你找到”,决策摩擦解决的是“再帮你选”,执行摩擦解决的则是“最后帮你做完”。这三层一旦连起来,原来靠流程拆分、岗位分工和组织协作才能完成的很多中间层,就会被一起压缩。
这才是很多人对 AI 感到不安的真正来源。不是某个工具忽然比你多会一点,而是越来越多原本需要组织协作、岗位分工和流程衔接的中间层,开始被压缩了。
所以真正变化的,不是岗位本身
说到底,Karpathy 那张图最容易被误读的地方,是把“高暴露”直接等同于“快消失”。这两件事不是一回事。
高分职业,很多不是会被直接替代,而是会被重组。软件开发就是典型例子。生产率上去之后,需求未必减少,也可能是过去做不起、不值得做、懒得做的软件突然都值得做了。
所以比起问“AI 会不会取代我”,更有用的问题可能是:
我的价值主要来自哪里?是来自信息差,还是来自把事情做成?
如果 Agent 能做掉中间步骤,我剩下的是不是目标定义、结果判断、例外处理和责任承担?
如果信息越来越便宜,我卖的是知识本身,还是信任、担保、合规、定制化和最后谁来负责?
我越来越觉得,这轮变化不会先把人从系统里清出去,而是先把人的位置往上推。以后更值钱的,未必是亲手做完每一步,而是定义目标、设定约束、判断例外、承担后果,以及处理机器一时还接不住的那些部分,比如信任、欺诈、监管和灰度边界。
这也是为什么我觉得,这轮 AI 焦虑的底层,不是岗位替代,而是交易重组。
岗位替代只是表面现象。
更深的一层是:当世界里挤满了 Agent,它们会像水一样,持续寻找阻力更小、效率更高、成本更低的路径。谁靠摩擦赚钱,谁就会先感到疼。谁能借 AI 把新的需求抬出来,谁就会先吃到红利。
所以这篇文章真正想说的,不是“别焦虑”。
该焦虑还是会焦虑。这很正常。
但如果你只盯着“哪个岗位要完”,你看到的只是浪头。真正推动浪头的,是底下那股更大的水流:AI 正在改写交易发生的方式。而这件事的影响,往往会比“谁被替代了”来得更早,也更深。