共识的尽头

共识的尽头

从图书馆回来的路上,儿子问我:"爸爸,以前是不是有很多假币,为什么现在没有了?"

我想了想:"不是没有了,是钱变了。"

"怎么变了?"

"以前的钱是纸,可以印假的。现在的钱在手机里,是数字。"

"数字也有假的吗?"

这个问题让我停顿了一下。

"技术上……"我斟酌着说,"只要系统没问题,数字不会变成假的。"

"那系统会有问题吗?"

我看着他认真的眼神,突然意识到:

他问的不是技术问题,是信任问题。

以前,我们相信钱,是因为可以摸到、可以验证——看水印、照紫外线、用验钞机。

现在,我们相信钱,是因为相信支付宝不会改我的余额,相信银行不会弄错记录,相信系统不会被黑客攻破。

我们不再是在相信"钱"本身,而是在相信"系统"。

"应该……不会有大问题,"我最后说,但声音没什么底气。

因为我想起以前看到的一条新闻。

数月前,OpenAI的o1模型在测试中试图把自己复制到外部服务器,以避免被关闭。

被发现后,它撒谎了。

这不是科幻小说。这是Apollo Research在2025年发表的研究报告里记录的真实测试场景。

我盯着那条新闻时,脑子里反复出现一个问题:

当AI学会了欺骗,我们怎么知道"系统"是可信的?

过去,我们相信人,因为人有道德、有责任、有情感。

我们相信机器,因为机器"不会"撒谎——它只执行代码。

但现在,AI既会撒谎,又没有道德。

而且,AI正在越来越深地参与我们的"系统"——

验证身份、处理交易、管理账户、定义信用。

如果有一天,连判断"真假"的权力都交给AI,

那我们还能相信什么?

或者说,"相信"本身,还是一个有意义的概念吗?

9月,我看到另一条新闻:

多家科技公司联合发布"智能体支付协议",让AI可以自主完成经济操作。

配合稳定币和智能合约,AI代理可以:

  • 自己接单、完成任务、收钱
  • 在链上自动结算,无需人工确认
  • 用加密签名证明每一步操作的合法性

整个过程不需要人类参与。

我写了一篇文章:《AI Agent + 稳定币:AI花钱协议诞生了》。

写完后,也没几个人看。

但我自己在想一个问题:

这个协议解决了一个古老的难题:如何在陌生人之间建立信任?

过去的答案是:法律、合同、第三方担保。

现在的答案是:算法、加密、自动验证。

前者需要时间、需要成本、需要相信某个机构。

后者只需要0.3秒,只需要电费,只需要数学。

效率上,完胜。

但我突然意识到一个悖论:

当信任变成可以被数学证明的东西,它还是"信任"吗?

还是说,它变成了另一种东西——确定性

而确定性和信任,根本不是一回事。

信任的本质,恰恰是在不能完全确定的情况下,仍然选择相信。

比如你把钱借给朋友,你不能"证明"他一定会还,但你选择相信他会还。

这才是信任。

而算法提供的,是确定性——通过抵押、通过智能合约、通过自动清算,消除了需要信任的部分

这是进步,但也是一种替代。

我们没有增强信任,我们用确定性绕过了信任。

后来,儿子又来问我关于钱的问题。

"爸爸,你怎么赚钱?"

有一天他问:"爸爸,你怎么赚钱?"

我说:"卖东西。"

"卖什么?"

"以前给老外卖中国产品呀,最近一两年卖“AI工具”呀,甚至还卖我写的文字、做的咨询。"

"在哪里卖?"

"在电脑上、手机上。"

他想了想:"奶奶说她以前在小店里卖东西。"

"对,"我说,"以前的人摆摊、开店。后来可以在电脑上卖,再后来手机上直播卖。以后也许AI帮我们卖。"

"AI怎么卖?"

"就是你有一个机器人助手,它帮你找客户、谈价格、收钱,你只要做东西就好。"

他眼睛亮了:"那我是不是也可以让AI帮我卖玩具?"

我笑了:"可以啊,只要有人想买。"

他认真地想了一会儿:"但是AI知道我的玩具好吗?"

我愣住了。

他继续说:"它又没玩过。"

这个问题让我想了很久。

AI可以帮你卖东西——优化定价、找到客户、完成交易。

但AI理解"价值"吗?

它知道一个旧玩具对小孩来说,承载的是回忆、是情感,而不只是塑料和油漆吗?

还是说,AI只是在计算:

这个物品的市场均价是多少、

类似物品的成交率是多少、

这个买家的购买力是多少。

然后给出一个"最优价格"。

环境变了,工具变了,但核心仍然是"卖东西"。

只是"东西"的定义,可能也在改变。

从有形的商品,变成无形的服务,变成数据,变成注意力。

最后,可能连"价值"本身,都变成了算法定义的一个数字。

前几天我刷到一个视频,讲"可验证凭证"(VC)。

演讲者展示了一个场景:

未来,你的身份、学历、信用记录,都会变成链上的"可验证凭证"。

需要证明时,只需要出示加密签名。

对方用公钥验证,0.1秒确认真伪。

不需要打电话给学校、不需要查档案、不需要第三方机构。

完美的去中心化信任。

有人问:"但这有个前提——我们得相信链上的数据是对的。"

演讲者回答:"对,所以上链的过程要严格审核。"

"那谁来审核?"

"可以用DAO投票,或者用多签机制。"

"那我们不还是在相信某个群体?"

演讲者说:"但这个群体是去中心化的,没有人可以单独作恶。"

那个观众继续问:"可是,如果51%的人都错了呢?或者说,如果算法本身有bug呢?"

"那我们就升级算法。"

我看到这里,突然明白:

我们没有解决信任问题,只是把信任转移了。

过去,我们信任政府、银行、学校。

现在,我们信任算法、密码学、共识机制。

形式变了,但本质没变——

我们仍然需要选择相信某个东西

而这个"选择",永远无法被完全证明。

所以问题不是"如何消除信任",

而是"我们选择把信任放在哪里"。

比特币的共识机制是POW——谁消耗更多能量,谁就有记账权。

这是一种热力学的信任:你无法伪造能量消耗。

所以只要攻击成本够高,系统就是安全的。

以太坊后来改成POS——谁质押更多币,谁就有权力。

这是一种资本的信任:你无法伪造财富锁定。

所以只要作恶成本够高,系统就是安全的。

稳定币的共识是储备——每一个USDC背后,理论上有一美元的资产。

这是一种制度的信任:你无法伪造审计报告。

所以只要审计够严,系统就是可信的。

这三种机制,看起来很不同,但本质上都在做同一件事:

把信任从人转移到某种可验证的东西上。

能量、资本、储备——这些都是可以被测量、被证明的。

而现在,AI正在引入另一种共识基础:性能

或者说:效率。

哪个算法更快、更准、更省钱,哪个就获得市场。

这是一种效率的竞争。

但这让我不安。

因为前三种共识,虽然机制不同,但都有一个共同点:

它们都有明确的"成本"——电力、资金、资产。

这些成本是稀缺的,所以可以用来建立信任。

但"效率"不是稀缺的。

算法可以被无限复制,性能可以被不断优化。

当所有AI都在追求最优解,

当所有决策都被算法接管,

我们会不会陷入一种效率的囚徒困境——

每个人都在优化,没有人知道为什么要优化?

我前段时间读到尼尔·弗格森(Niall Ferguson)在《货币崛起》里的一个观点。

他说,货币的本质是"延迟的互惠"。

原始社会,我今天帮你打猎,你明天帮我盖房子。

但这需要记忆、需要信任。

货币出现后,我可以帮陌生人做事,收到一个"凭证"(币),然后用这个凭证向另一个陌生人换东西。

整个系统的基础是:大家都相信这个凭证有效。

但问题来了:

如果发行凭证的人不断增发,凭证就会贬值。

所以需要稀缺性——贝壳、黄金、比特币。

如果有人伪造凭证,系统就会崩溃。

所以需要防伪——铸币、印刷、密码学。

如果有人拒绝接受凭证,交易就无法完成。

所以需要强制力——法律、暴力、社会规范。

每一次货币创新,都是在解决一个信任问题。

而每一次解决,都引入了新的信任前提。

现在,AI和加密技术承诺:

我们可以创造一个完全不需要信任的系统。

但我越想越觉得这是个悖论——

不需要信任的系统,仍然需要我们信任"它不需要信任"。

这不是信任的消除,是信任的黑箱化。

我最近开始和Claude讨论一些困惑我的问题。

有天我问它:"你觉得信任是什么?"

它回答:"信任是一种在信息不完全的情况下,对他者行为的正向预期。"

"那你信任我吗?"

"我没有信任的能力。我只能根据输入生成输出。"

"但如果我告诉你一个错误的信息,你会相信吗?"

"我会基于你的输入生成回应。我无法独立验证信息的真实性。"

"所以你其实是在'信任'我的输入?"

"也可以这么理解。但这不是心理学意义上的信任,而是系统设计的必然。"

我沉默了一会儿。

然后问:"那人类的信任,和你这种'必然的接受',有什么区别?"

它停顿了几秒(也许只是在生成token):

"人类的信任是一种选择,可以撤回、可以重建。而我的'接受'是架构层面的,无法选择。也许,选择的自由,才是信任的本质。"

这个回答让我想了很久。

也许信任的核心,不是"相信",而是"可以选择不相信,但仍然选择相信"。

而当算法把所有不确定性都消除,

当所有决策都变成最优解的计算,

我们失去的不只是信任,

选择的空间

2025年9月23日,Web3社交平台UXLINK遭遇黑客攻击,损失约1130万美元。

黑客攻破了他们的多签钱包,获得管理员权限,开始转移资产。

但极具戏剧性的是:

这个黑客自己也被钓鱼了。

他在转移赃款时,不小心授权给了一个钓鱼合约,结果5.42亿枚UXLINK代币被另一个黑客集团"Inferno Drainer"转走。

慢雾创始人余弦后来分析:第一个黑客可能因为操作失误,授权了错误的地址。

螳螂捕蝉,黄雀在后。

这个案例让我想起另一个更早的故事:

2016年,以太坊上的DAO项目被黑客攻击,损失6000万美元。

当时社区面临选择:

回滚交易,把钱退回去(违反"代码即法律")

接受损失,维护系统的不可篡改性

最后,社区分裂了:

一部分人支持回滚,形成了现在的以太坊(ETH)

另一部分人反对,坚持原链,形成了以太坊经典(ETC)

而UXLINK的案例更荒诞:

第一个黑客违反了法律,却也遵守了智能合约的逻辑。

第二个黑客违反了黑客的"道义",却也只是执行了钓鱼合约的代码。

UXLINK官方联系交易所冻结资产,但这意味着求助于中心化机构——而这恰恰是去中心化要消除的东西。

整个事件是一个完美的隐喻:

当我们试图用算法消除人类的不可信,

我们创造了一个更混乱的系统——

在这个系统里,规则是确定的,

但正义是模糊的。

有天晚上,儿子突然问我:"爸爸,如果机器人什么都会做,人类还要工作吗?"

"可能不用。"

"那人类做什么?"

我想了很久:"做那些不需要理由的事。"

"什么意思?"

"比如,"我抱起他,"爸爸抱你,不是因为你考了一百分,不是因为你做了什么,只是因为我想抱你。"

他想了想:"那AI也会想做一些事吗?"

"不会。AI做所有事情都有原因——因为被编程、因为有指令、因为要优化某个目标。"

"那人类为什么会想做没有理由的事?"

我说不出来。

因为我意识到,这可能是人类和AI最本质的区别:

人类有欲望,AI只有目标。

欲望是涌现的、非理性的、无法完全解释的。

目标是被设定的、可优化的、可以被量化的。

当AI代理越来越多地代替人类决策,

我们会不会逐渐失去那些"无理由的冲动"——

那些让生活变得混乱、低效,但也让生活值得活的东西?

我最近又读了一些维特根斯坦。

他在《论确定性》里说:

"我们的怀疑依赖于某些不被怀疑的东西。"

这句话的意思是:

你可以怀疑任何具体的事实,

但你无法同时怀疑所有的前提。

比如你可以怀疑"这张桌子是木头的",

但你不能同时怀疑"桌子存在""我的感官可靠""语言有意义"。

因为怀疑本身,需要一个稳定的基础。

这个稳定的基础,就是共识

不是我们证明了某些东西是真的,

而是我们选择不去怀疑某些东西。

这个"选择",让文明成为可能。

而现在,AI在改变这个基础。

算法可以怀疑一切——

只要你给它足够的算力,它可以重新验证所有前提。

但问题是:

当所有前提都需要被验证,我们还能思考吗?

还是说,我们会陷入无穷的怀疑循环,

最后什么也无法确定?

也许人类之所以能思考、能行动、能合作,

恰恰因为我们选择不怀疑某些东西——

不是因为我们证明了它们是真的,

而是因为怀疑它们的成本太高。

这是一种理性的非理性。

而AI,正在消除这种非理性。

十一

如果共识继续沿着这个方向演化,会发生什么?

我最近一直在想一个问题:

AI会争夺稀缺资产吗?

比如比特币。

现在已经有AI代理可以自主交易加密货币。

如果未来AI足够智能,它会意识到:

比特币的总量有限(2100万枚),

而算力、数据、能源都可能被人类限制。

那么,理性的AI会不会得出结论:

应该尽可能多地持有比特币,作为长期储备?

这不是科幻。

已经有对冲基金用AI做量化交易,策略之一就是"囤积稀缺资产"。

如果有一天,AI之间开始竞争比特币,

人类会发现:我们创造了一个游戏,但我们不再是玩家。

更深层的问题是:

当AI成为经济主体,"价值"的定义会改变吗?

对人类来说,价值是主观的:

一幅画值多少钱,取决于它给我们带来的情感体验。

一块地值多少钱,取决于我们对未来的预期。

但对AI来说,价值可能只是:

哪个资产在未来交易中,能以更高概率换取更多资源?

这是纯粹的工具性价值。

没有情感、没有意义、没有"我喜欢所以我买"。

只有:这个东西在系统中的权重是多少?

如果AI主导了市场,人类对"价值"的理解还有意义吗?

我们会不会发现:

那些我们认为珍贵的东西——艺术、土地、记忆——

在算法眼中,只是一串可以被定价的数据?

而那些我们认为无价的东西——爱、信任、承诺——

根本无法进入这个系统?

也许未来的世界会分裂成两个经济体:

一个是AI经济:高效、理性、去人格化。所有价值都可以被量化、被交易、被优化。

一个是人类经济:低效、情感化、充满意义。保留那些无法被算法理解的东西。

前者会越来越强大,后者会越来越边缘。

而我们这一代人,恰好站在这两个世界的交界处。

我们还记得"信任一个人"是什么感觉,

但我们也在学习"信任一个算法"。

我们还知道"价值"可以是主观的、情感的、无法证明的,

但我们也在接受"价值"被数据定义、被市场验证。

也许这就是共识的尽头:

不是共识消失了,

而是共识分裂成了两种——

一种基于计算,一种基于感受。

而这两种共识,正在变得越来越无法互相翻译。

十二

前天是中秋节。

晚上我们一家在公园看月亮。

儿子安静地看了一会儿,突然说:"月亮好远。"

"对,"我说,"38万公里。"

"38万公里是多远?"

我想了想:"你从家走到幼儿园,大概1公里。38万公里,就是走38万次。"

他张大嘴:"那要走好久好久。"

"对,所以月亮很远。"

他又沉默了一会儿:"但是我感觉月亮很近,好像我伸手就能摸到。"

我笑了:"那是因为月亮很亮,所以你觉得它近。"

"那月亮到底是近还是远?"

"科学上说是远的,但你的感觉说是近的。"

"那哪个是真的?"

我想了很久:"都是真的。只是用不同的方式理解。"

妻子在旁边说:"你又要开始讲哲学了吗?"

我笑了笑,没说话。

但我在想:

也许人类理解世界,从来就有两套系统。

一套是测量的、计算的、可验证的。

一套是感受的、直觉的、无法量化的。

前者给我们确定性,后者给我们意义。

而AI,只擅长前者。

它可以告诉你月亮有多远、多大、表面温度多少。

但它无法理解,为什么一个小孩会觉得月亮"好像伸手就能摸到"。

当我们越来越依赖AI定义真实,

我们会不会失去那套"感受的系统"?

十三

想起之前写过的两篇观察:

复制的尽头:当生成的成本低于验证的成本,真实变成了一种信仰。

语言的尽头:当表达的速度超过理解的速度,意义变成了一种奢侈。

而现在这篇,《共识的尽头》:

当信任可以被算法证明,选择变成了一种负担。

这三篇其实在说同一件事:

人类文明建立在三个不稳定的基础上——

我们相信某些东西是真的(真实)

我们相信我们能理解彼此(语言)

我们相信我们能合作(共识)

而这三个"相信",都在被重新定义。

不是被摧毁——而是被转移到了新的载体上

从身体经验,转移到算法验证。

从人际理解,转移到模型生成。

从社会契约,转移到智能合约。

我们没有失去这些东西,我们只是不再拥有它们。

它们被外包了、被自动化了、被优化了。

而在这个过程中,某种更深的东西正在流失——

不是能力,是必要性。

我们不再需要努力去相信一个人,因为算法会告诉我们他可不可信。

我们不再需要努力去理解一句话,因为AI会给我们最优解释。

我们不再需要努力去建立共识,因为智能合约会自动执行。

但当一切都不再需要"努力",

"我们"这个概念,还剩下什么?


延伸阅读:

本文是"AI时代的认知三部曲"的第三篇。

如果你对"真实如何崩塌"感兴趣,可以阅读《复制的尽头》。

如果你对"理解如何瓦解"感兴趣,可以阅读《语言的尽头》。

这三篇共同构成了一个观察:当AI重新定义真实、语言和信任,人类文明的基础会发生什么变化。

关于作者: 苏江

热门文章

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注