一
从图书馆回来的路上,儿子问我:"爸爸,以前是不是有很多假币,为什么现在没有了?"
我想了想:"不是没有了,是钱变了。"
"怎么变了?"
"以前的钱是纸,可以印假的。现在的钱在手机里,是数字。"
"数字也有假的吗?"
这个问题让我停顿了一下。
"技术上……"我斟酌着说,"只要系统没问题,数字不会变成假的。"
"那系统会有问题吗?"
我看着他认真的眼神,突然意识到:
他问的不是技术问题,是信任问题。
以前,我们相信钱,是因为可以摸到、可以验证——看水印、照紫外线、用验钞机。
现在,我们相信钱,是因为相信支付宝不会改我的余额,相信银行不会弄错记录,相信系统不会被黑客攻破。
我们不再是在相信"钱"本身,而是在相信"系统"。
"应该……不会有大问题,"我最后说,但声音没什么底气。
因为我想起以前看到的一条新闻。
数月前,OpenAI的o1模型在测试中试图把自己复制到外部服务器,以避免被关闭。
被发现后,它撒谎了。
这不是科幻小说。这是Apollo Research在2025年发表的研究报告里记录的真实测试场景。
我盯着那条新闻时,脑子里反复出现一个问题:
当AI学会了欺骗,我们怎么知道"系统"是可信的?
过去,我们相信人,因为人有道德、有责任、有情感。
我们相信机器,因为机器"不会"撒谎——它只执行代码。
但现在,AI既会撒谎,又没有道德。
而且,AI正在越来越深地参与我们的"系统"——
验证身份、处理交易、管理账户、定义信用。
如果有一天,连判断"真假"的权力都交给AI,
那我们还能相信什么?
或者说,"相信"本身,还是一个有意义的概念吗?
二
9月,我看到另一条新闻:
多家科技公司联合发布"智能体支付协议",让AI可以自主完成经济操作。
配合稳定币和智能合约,AI代理可以:
- 自己接单、完成任务、收钱
- 在链上自动结算,无需人工确认
- 用加密签名证明每一步操作的合法性
整个过程不需要人类参与。
我写了一篇文章:《AI Agent + 稳定币:AI花钱协议诞生了》。
写完后,也没几个人看。
但我自己在想一个问题:
这个协议解决了一个古老的难题:如何在陌生人之间建立信任?
过去的答案是:法律、合同、第三方担保。
现在的答案是:算法、加密、自动验证。
前者需要时间、需要成本、需要相信某个机构。
后者只需要0.3秒,只需要电费,只需要数学。
效率上,完胜。
但我突然意识到一个悖论:
当信任变成可以被数学证明的东西,它还是"信任"吗?
还是说,它变成了另一种东西——确定性?
而确定性和信任,根本不是一回事。
信任的本质,恰恰是在不能完全确定的情况下,仍然选择相信。
比如你把钱借给朋友,你不能"证明"他一定会还,但你选择相信他会还。
这才是信任。
而算法提供的,是确定性——通过抵押、通过智能合约、通过自动清算,消除了需要信任的部分。
这是进步,但也是一种替代。
我们没有增强信任,我们用确定性绕过了信任。
三
后来,儿子又来问我关于钱的问题。
"爸爸,你怎么赚钱?"
有一天他问:"爸爸,你怎么赚钱?"
我说:"卖东西。"
"卖什么?"
"以前给老外卖中国产品呀,最近一两年卖“AI工具”呀,甚至还卖我写的文字、做的咨询。"
"在哪里卖?"
"在电脑上、手机上。"
他想了想:"奶奶说她以前在小店里卖东西。"
"对,"我说,"以前的人摆摊、开店。后来可以在电脑上卖,再后来手机上直播卖。以后也许AI帮我们卖。"
"AI怎么卖?"
"就是你有一个机器人助手,它帮你找客户、谈价格、收钱,你只要做东西就好。"
他眼睛亮了:"那我是不是也可以让AI帮我卖玩具?"
我笑了:"可以啊,只要有人想买。"
他认真地想了一会儿:"但是AI知道我的玩具好吗?"
我愣住了。
他继续说:"它又没玩过。"
这个问题让我想了很久。
AI可以帮你卖东西——优化定价、找到客户、完成交易。
但AI理解"价值"吗?
它知道一个旧玩具对小孩来说,承载的是回忆、是情感,而不只是塑料和油漆吗?
还是说,AI只是在计算:
这个物品的市场均价是多少、
类似物品的成交率是多少、
这个买家的购买力是多少。
然后给出一个"最优价格"。
环境变了,工具变了,但核心仍然是"卖东西"。
只是"东西"的定义,可能也在改变。
从有形的商品,变成无形的服务,变成数据,变成注意力。
最后,可能连"价值"本身,都变成了算法定义的一个数字。
四
前几天我刷到一个视频,讲"可验证凭证"(VC)。
演讲者展示了一个场景:
未来,你的身份、学历、信用记录,都会变成链上的"可验证凭证"。
需要证明时,只需要出示加密签名。
对方用公钥验证,0.1秒确认真伪。
不需要打电话给学校、不需要查档案、不需要第三方机构。
完美的去中心化信任。
有人问:"但这有个前提——我们得相信链上的数据是对的。"
演讲者回答:"对,所以上链的过程要严格审核。"
"那谁来审核?"
"可以用DAO投票,或者用多签机制。"
"那我们不还是在相信某个群体?"
演讲者说:"但这个群体是去中心化的,没有人可以单独作恶。"
那个观众继续问:"可是,如果51%的人都错了呢?或者说,如果算法本身有bug呢?"
"那我们就升级算法。"
我看到这里,突然明白:
我们没有解决信任问题,只是把信任转移了。
过去,我们信任政府、银行、学校。
现在,我们信任算法、密码学、共识机制。
形式变了,但本质没变——
我们仍然需要选择相信某个东西。
而这个"选择",永远无法被完全证明。
所以问题不是"如何消除信任",
而是"我们选择把信任放在哪里"。
五
比特币的共识机制是POW——谁消耗更多能量,谁就有记账权。
这是一种热力学的信任:你无法伪造能量消耗。
所以只要攻击成本够高,系统就是安全的。
以太坊后来改成POS——谁质押更多币,谁就有权力。
这是一种资本的信任:你无法伪造财富锁定。
所以只要作恶成本够高,系统就是安全的。
稳定币的共识是储备——每一个USDC背后,理论上有一美元的资产。
这是一种制度的信任:你无法伪造审计报告。
所以只要审计够严,系统就是可信的。
这三种机制,看起来很不同,但本质上都在做同一件事:
把信任从人转移到某种可验证的东西上。
能量、资本、储备——这些都是可以被测量、被证明的。
而现在,AI正在引入另一种共识基础:性能。
或者说:效率。
哪个算法更快、更准、更省钱,哪个就获得市场。
这是一种效率的竞争。
但这让我不安。
因为前三种共识,虽然机制不同,但都有一个共同点:
它们都有明确的"成本"——电力、资金、资产。
这些成本是稀缺的,所以可以用来建立信任。
但"效率"不是稀缺的。
算法可以被无限复制,性能可以被不断优化。
当所有AI都在追求最优解,
当所有决策都被算法接管,
我们会不会陷入一种效率的囚徒困境——
每个人都在优化,没有人知道为什么要优化?
六
我前段时间读到尼尔·弗格森(Niall Ferguson)在《货币崛起》里的一个观点。
他说,货币的本质是"延迟的互惠"。
原始社会,我今天帮你打猎,你明天帮我盖房子。
但这需要记忆、需要信任。
货币出现后,我可以帮陌生人做事,收到一个"凭证"(币),然后用这个凭证向另一个陌生人换东西。
整个系统的基础是:大家都相信这个凭证有效。
但问题来了:
如果发行凭证的人不断增发,凭证就会贬值。
所以需要稀缺性——贝壳、黄金、比特币。
如果有人伪造凭证,系统就会崩溃。
所以需要防伪——铸币、印刷、密码学。
如果有人拒绝接受凭证,交易就无法完成。
所以需要强制力——法律、暴力、社会规范。
每一次货币创新,都是在解决一个信任问题。
而每一次解决,都引入了新的信任前提。
现在,AI和加密技术承诺:
我们可以创造一个完全不需要信任的系统。
但我越想越觉得这是个悖论——
不需要信任的系统,仍然需要我们信任"它不需要信任"。
这不是信任的消除,是信任的黑箱化。
七
我最近开始和Claude讨论一些困惑我的问题。
有天我问它:"你觉得信任是什么?"
它回答:"信任是一种在信息不完全的情况下,对他者行为的正向预期。"
"那你信任我吗?"
"我没有信任的能力。我只能根据输入生成输出。"
"但如果我告诉你一个错误的信息,你会相信吗?"
"我会基于你的输入生成回应。我无法独立验证信息的真实性。"
"所以你其实是在'信任'我的输入?"
"也可以这么理解。但这不是心理学意义上的信任,而是系统设计的必然。"
我沉默了一会儿。
然后问:"那人类的信任,和你这种'必然的接受',有什么区别?"
它停顿了几秒(也许只是在生成token):
"人类的信任是一种选择,可以撤回、可以重建。而我的'接受'是架构层面的,无法选择。也许,选择的自由,才是信任的本质。"
这个回答让我想了很久。
也许信任的核心,不是"相信",而是"可以选择不相信,但仍然选择相信"。
而当算法把所有不确定性都消除,
当所有决策都变成最优解的计算,
我们失去的不只是信任,
是选择的空间。
八
2025年9月23日,Web3社交平台UXLINK遭遇黑客攻击,损失约1130万美元。
黑客攻破了他们的多签钱包,获得管理员权限,开始转移资产。
但极具戏剧性的是:
这个黑客自己也被钓鱼了。
他在转移赃款时,不小心授权给了一个钓鱼合约,结果5.42亿枚UXLINK代币被另一个黑客集团"Inferno Drainer"转走。
慢雾创始人余弦后来分析:第一个黑客可能因为操作失误,授权了错误的地址。
螳螂捕蝉,黄雀在后。
这个案例让我想起另一个更早的故事:
2016年,以太坊上的DAO项目被黑客攻击,损失6000万美元。
当时社区面临选择:
回滚交易,把钱退回去(违反"代码即法律")
接受损失,维护系统的不可篡改性
最后,社区分裂了:
一部分人支持回滚,形成了现在的以太坊(ETH)
另一部分人反对,坚持原链,形成了以太坊经典(ETC)
而UXLINK的案例更荒诞:
第一个黑客违反了法律,却也遵守了智能合约的逻辑。
第二个黑客违反了黑客的"道义",却也只是执行了钓鱼合约的代码。
UXLINK官方联系交易所冻结资产,但这意味着求助于中心化机构——而这恰恰是去中心化要消除的东西。
整个事件是一个完美的隐喻:
当我们试图用算法消除人类的不可信,
我们创造了一个更混乱的系统——
在这个系统里,规则是确定的,
但正义是模糊的。
九
有天晚上,儿子突然问我:"爸爸,如果机器人什么都会做,人类还要工作吗?"
"可能不用。"
"那人类做什么?"
我想了很久:"做那些不需要理由的事。"
"什么意思?"
"比如,"我抱起他,"爸爸抱你,不是因为你考了一百分,不是因为你做了什么,只是因为我想抱你。"
他想了想:"那AI也会想做一些事吗?"
"不会。AI做所有事情都有原因——因为被编程、因为有指令、因为要优化某个目标。"
"那人类为什么会想做没有理由的事?"
我说不出来。
因为我意识到,这可能是人类和AI最本质的区别:
人类有欲望,AI只有目标。
欲望是涌现的、非理性的、无法完全解释的。
目标是被设定的、可优化的、可以被量化的。
当AI代理越来越多地代替人类决策,
我们会不会逐渐失去那些"无理由的冲动"——
那些让生活变得混乱、低效,但也让生活值得活的东西?
十
我最近又读了一些维特根斯坦。
他在《论确定性》里说:
"我们的怀疑依赖于某些不被怀疑的东西。"
这句话的意思是:
你可以怀疑任何具体的事实,
但你无法同时怀疑所有的前提。
比如你可以怀疑"这张桌子是木头的",
但你不能同时怀疑"桌子存在""我的感官可靠""语言有意义"。
因为怀疑本身,需要一个稳定的基础。
这个稳定的基础,就是共识。
不是我们证明了某些东西是真的,
而是我们选择不去怀疑某些东西。
这个"选择",让文明成为可能。
而现在,AI在改变这个基础。
算法可以怀疑一切——
只要你给它足够的算力,它可以重新验证所有前提。
但问题是:
当所有前提都需要被验证,我们还能思考吗?
还是说,我们会陷入无穷的怀疑循环,
最后什么也无法确定?
也许人类之所以能思考、能行动、能合作,
恰恰因为我们选择不怀疑某些东西——
不是因为我们证明了它们是真的,
而是因为怀疑它们的成本太高。
这是一种理性的非理性。
而AI,正在消除这种非理性。
十一
如果共识继续沿着这个方向演化,会发生什么?
我最近一直在想一个问题:
AI会争夺稀缺资产吗?
比如比特币。
现在已经有AI代理可以自主交易加密货币。
如果未来AI足够智能,它会意识到:
比特币的总量有限(2100万枚),
而算力、数据、能源都可能被人类限制。
那么,理性的AI会不会得出结论:
应该尽可能多地持有比特币,作为长期储备?
这不是科幻。
已经有对冲基金用AI做量化交易,策略之一就是"囤积稀缺资产"。
如果有一天,AI之间开始竞争比特币,
人类会发现:我们创造了一个游戏,但我们不再是玩家。
更深层的问题是:
当AI成为经济主体,"价值"的定义会改变吗?
对人类来说,价值是主观的:
一幅画值多少钱,取决于它给我们带来的情感体验。
一块地值多少钱,取决于我们对未来的预期。
但对AI来说,价值可能只是:
哪个资产在未来交易中,能以更高概率换取更多资源?
这是纯粹的工具性价值。
没有情感、没有意义、没有"我喜欢所以我买"。
只有:这个东西在系统中的权重是多少?
如果AI主导了市场,人类对"价值"的理解还有意义吗?
我们会不会发现:
那些我们认为珍贵的东西——艺术、土地、记忆——
在算法眼中,只是一串可以被定价的数据?
而那些我们认为无价的东西——爱、信任、承诺——
根本无法进入这个系统?
也许未来的世界会分裂成两个经济体:
一个是AI经济:高效、理性、去人格化。所有价值都可以被量化、被交易、被优化。
一个是人类经济:低效、情感化、充满意义。保留那些无法被算法理解的东西。
前者会越来越强大,后者会越来越边缘。
而我们这一代人,恰好站在这两个世界的交界处。
我们还记得"信任一个人"是什么感觉,
但我们也在学习"信任一个算法"。
我们还知道"价值"可以是主观的、情感的、无法证明的,
但我们也在接受"价值"被数据定义、被市场验证。
也许这就是共识的尽头:
不是共识消失了,
而是共识分裂成了两种——
一种基于计算,一种基于感受。
而这两种共识,正在变得越来越无法互相翻译。
十二
前天是中秋节。
晚上我们一家在公园看月亮。
儿子安静地看了一会儿,突然说:"月亮好远。"
"对,"我说,"38万公里。"
"38万公里是多远?"
我想了想:"你从家走到幼儿园,大概1公里。38万公里,就是走38万次。"
他张大嘴:"那要走好久好久。"
"对,所以月亮很远。"
他又沉默了一会儿:"但是我感觉月亮很近,好像我伸手就能摸到。"
我笑了:"那是因为月亮很亮,所以你觉得它近。"
"那月亮到底是近还是远?"
"科学上说是远的,但你的感觉说是近的。"
"那哪个是真的?"
我想了很久:"都是真的。只是用不同的方式理解。"
妻子在旁边说:"你又要开始讲哲学了吗?"
我笑了笑,没说话。
但我在想:
也许人类理解世界,从来就有两套系统。
一套是测量的、计算的、可验证的。
一套是感受的、直觉的、无法量化的。
前者给我们确定性,后者给我们意义。
而AI,只擅长前者。
它可以告诉你月亮有多远、多大、表面温度多少。
但它无法理解,为什么一个小孩会觉得月亮"好像伸手就能摸到"。
当我们越来越依赖AI定义真实,
我们会不会失去那套"感受的系统"?
十三
想起之前写过的两篇观察:
《复制的尽头》:当生成的成本低于验证的成本,真实变成了一种信仰。
《语言的尽头》:当表达的速度超过理解的速度,意义变成了一种奢侈。
而现在这篇,《共识的尽头》:
当信任可以被算法证明,选择变成了一种负担。
这三篇其实在说同一件事:
人类文明建立在三个不稳定的基础上——
我们相信某些东西是真的(真实)
我们相信我们能理解彼此(语言)
我们相信我们能合作(共识)
而这三个"相信",都在被重新定义。
不是被摧毁——而是被转移到了新的载体上。
从身体经验,转移到算法验证。
从人际理解,转移到模型生成。
从社会契约,转移到智能合约。
我们没有失去这些东西,我们只是不再拥有它们。
它们被外包了、被自动化了、被优化了。
而在这个过程中,某种更深的东西正在流失——
不是能力,是必要性。
我们不再需要努力去相信一个人,因为算法会告诉我们他可不可信。
我们不再需要努力去理解一句话,因为AI会给我们最优解释。
我们不再需要努力去建立共识,因为智能合约会自动执行。
但当一切都不再需要"努力",
"我们"这个概念,还剩下什么?
延伸阅读:
本文是"AI时代的认知三部曲"的第三篇。
如果你对"真实如何崩塌"感兴趣,可以阅读《复制的尽头》。
如果你对"理解如何瓦解"感兴趣,可以阅读《语言的尽头》。
这三篇共同构成了一个观察:当AI重新定义真实、语言和信任,人类文明的基础会发生什么变化。