语言的尽头
一
儿子早在上幼儿园的时候就问过我一个很哭笑不得的问题:"爸爸,怎么才能不死?"
我试着解释:"人是原子组成的,吃喝拉撒都是原子在宇宙里的循环……"
他当然没听懂。
然后他掏出iPad,问AI:"怎么才能不死?"
AI给了他一长串答案:端粒延长技术、冷冻保存、意识上传、基因编辑……虽然现在还做不到,但未来可能可以。
我小的时候也问过同样的问题。
那种恐惧在我心里待了很久,它从未被"解决",只是慢慢变成了我的一部分。
而我儿子,AI把他的恐惧转化成了一个"技术问题"——只要科技足够发达,就能解决。
问题被回答了,恐惧被关闭了。
但他也失去了在那个问题里挣扎、发酵、最后长出某种理解的过程。
那一刻我意识到:语言正在改变它的功能。
以前,语言是用来打开问题的——你问"什么是死亡",是为了进入那个问题,和它待在一起。
现在,语言被用来关闭问题——你问AI,得到答案,问题被解决,你可以继续往前走。
这是效率的提升,也是某种深度的丧失。
二
三年前,我第一次深度使用GPT。
那些一直在脑海中模糊漂浮的感觉,突然有了精确的名字:具身认知、范式转移、认知负荷。
每一个新词汇,都像给世界增加了一个维度。
那一年,我的认知像坐火箭一样提升。我理解了维特根斯坦那句话:
"我的语言的界限意味着我的世界的界限。"
词汇量=世界的分辨率。
AI是我见过最好的老师——可以快速入门任何领域,像预训练模型一样广泛吸收知识,获得即时反馈。
我以为我在变得更聪明。
但转折发生在2025年夏天。
以前我用Cursor写代码,它帮我生成代码片段,但我需要手动review每一行。那个review的过程,我还在思考。
今年之后,Claude Code、CodeX这些工具进化出了Agent模式。它们有充分权限:自己写代码、测试、修bug、git commit、部署。
我被完全跳过了。
只有代码运行不了,它才会返回来问我。
效率提升了几十倍。
但某天深夜我突然意识到:我已经不知道那些代码是怎么工作的了。
不是说看不懂每一行,而是我没有经历那个从混沌到秩序的思考过程。
以前写代码,我需要:在脑子里模拟数据流、在白板上画图、陷入死胡同、在混沌中挣扎。
然后某个瞬间,突然看清了本质。
那个"看清本质"的瞬间,才是真正的理解。
而现在,我被优化掉了。从需求直接到部署,中间那段黑暗的、笨拙的、痛苦的过程消失了。
我开始怀疑:那段被我以为是低效的过程,是不是恰恰是理解本身?
三
数月前刷到雷军讲小米SU7的视频。
屏幕上滚动着:"移动高性能涡轮""轮轴比""轮高比"。
我突然感到荒诞。
"移动高性能涡轮"——不就是涡轮增压吗?"轮轴比""轮高比"——雷军发明的新概念,听起来很专业,但它真的有意义吗?
我想起雷军最早的slogan:"为发烧而生"。
什么是"发烧"?
这个词本身什么都不是,只是一个被制造出来的标签。
然后这个标签开始反向塑造现实:有了"发烧"这个概念→消费者追求"发烧"→产品要体现"发烧感"→媒体讨论什么才是"发烧"。
但从头到尾,没有人真正知道自己在说什么。
类似的词正在爆炸:
消费领域:刚需、刚需房、高级感、活人感、松弛感、氛围感、仪式感。
社会上流行越来越多的黑话:
- 以前叫拍马屁,现在叫提供情绪价值
- 以前叫大冤种,现在叫家人们
- 以前叫傍大款,现在叫向上社交
- 以前叫穷,现在叫消费降级
- 以前叫不要脸,现在叫内心强大
- 以前叫好色,现在叫生理性喜欢
- 以前叫缺心眼,现在叫钝感力
- 以前叫坑蒙拐骗,现在叫割韭菜
- 以前叫裁员,现在叫优化
- 以前叫压榨剥削,现在叫降本增效
- 以前叫生闷气,现在叫情绪内耗
本质没变,只是话术在变。
但这些新词不是无害的。
发明"刚需"这个词的人是个天才,无形中制造了大量的莫须有的需求,让我们找到个理由够买一些我们未必需要的东西。
"情绪价值"创造了什么?以前人们只是对别人好,现在你要"提供情绪价值",否则你就是"情绪价值低"。把人际关系变成了可以量化、可以交易的东西。
"情绪内耗"创造了什么?以前人们只是有时候想太多,现在你在"内耗",需要课程、咨询、产品来"解决内耗"。
每一个新词,都是一个新的市场入口。
更深刻的例子是"价值投资"。
本杰明·格雷厄姆在1934年提出一个公式:内在价值=预期收益/折现率。
这个公式看起来很科学,但问题是:预期收益怎么算?折现率怎么定?
这些都是主观的。
但当这个公式被写出来,当"价值投资"这个词被创造,它就产生了心理锚定效应。
人们开始相信:股价低于"内在价值"就该买,股价高于就该卖,只要长期持有,价格终将回归价值。
然后巴菲特用这个方法赚了几百亿美元。媒体报道、出版社出书、培训机构开课。
现在每个股民都知道"价值投资",都觉得自己在做价值投资。
但99%的人根本不知道自己在说什么。
更诡异的是:当足够多的人相信这个公式,这个公式就变成了自证预言。
当很多人相信某个股票"被低估"→他们买入→股价上涨→"价值"被"发现"了。
这就是反身性:价格影响价值,价值影响价格。
所以"价值投资"创造了什么?
它创造了一个心理锚定,然后这个锚定创造了真实的价格支撑。
它让一个主观的概念,变成了客观的现实。
语言不只是描述世界,语言在创造世界。
四
过去几个月,我和几个不同的AI进行了很多次对话。
Claude、GPT、Gemini,我问它们同一个问题:"语言的本质是什么?"
每个AI的答案都不同,但我自己得出了一个结论:
语言的本质,是符号操作。
人类的抽象思维就是符号操作。我们把世界翻译成概念,然后操作这些概念。
这就是为什么大语言模型能涌现出智能——因为智能本来就是语言化的。
没有"风险"这个词,你无法思考投资。没有"价值"这个词,你无法进行判断。
所以当机器掌握了符号操作,它就掌握了人类思维的基础架构。
但这也让我意识到:语言思维可能只是某个阶段的工具。
我想起前段时间在推特上看到的一个帖子:下一代人的认知方式正在改变。
现在的小孩从小刷短视频。三秒一个画面,每个画面传递多层信息——文字、图像、音乐、情绪。
有研究发现,这代孩子的视觉皮层比我们发达。他们处理视觉信息的速度比我们快得多。
代价是,他们不需要把所有东西翻译成语言才能处理。
这可能是一次器质性的变化。不是观念的改变,是大脑结构的改变。
我想起老子那句话:道可道,非常道。
以前我以为这是玄学。现在我理解了:
老子不是在说"道不能说",他是在说:当你能瞬间说出一个东西时,你就失去了真正理解它的可能。
过早的命名,会杀死活的经验。
三年前,我第一次把一个复杂系统优化成功。那种感觉说不出——不是成就感,不是快乐,是某种更深的东西。
我在那种感觉里待了很久。
后来我学到了词:"具身认知""范式转移"。
从那之后,每次我体验到那种感觉,大脑会自动标记:"哦,这是具身认知带来的范式转移。"
标记的瞬间,体验就结束了。活的东西变成了死的标签。
而在AI时代,这个转化的速度被加速到极致。任何体验都可以在0.3秒内被命名、分类、解释、归档。
我们失去了和体验待在一起的能力。失去了让意义缓慢浮现的耐心。失去了在不确定性中生长理解的过程。
五
但我也必须承认:AI让我学到了很多东西。
它像一个永不疲倦的导师——我可以问任何问题,快速入门任何领域,获得即时反馈。
这种学习方式,在人类历史上从未有过。
我拥抱这个时代。我感激AI带来的可能性。
但我也越来越清楚:知识和理解,不是一回事。
AI可以给我知识。但理解,需要我自己生长。
去年我调试一个bug,连续三天没进展。
第三天深夜,我盯着屏幕,突然看见了。
不是"想明白",是看见——那些代码变成了立体的结构,我能看到数据怎么流动,能看到错误在哪个节点发生。
那种感觉无法用语言描述。但它改变了我。
不是"我知道了怎么解决这个bug",而是"我成为了一个能看见这类结构的人"。
理解不是获得答案,理解是成为那个能看见答案的人。
而这个"成为"的过程,需要:在混沌中挣扎、在错误中摸索、在时间里发酵。
这个过程无法压缩,无法外包。
这是人和AI最本质的区别。不是AI不够聪明,而是AI没有身体、没有时间、没有那个"成为"的过程。
我开始观察周围的人,发现一个吊诡的现象:
不是大部分人无法忍受"不知道",而是大部分人连问都懒得问了。
以前,人们遇到问题会问。现在,第一反应是:算了。
因为答案来得太容易,以至于问题本身变得不重要。
以前,一个问题会在脑子里徘徊很久。你会想、会查、会问人。那个过程本身,会让问题变得重要。
现在,问题在被提出的瞬间就被解决了。所以问题失去了重量。
当答案太容易获得时,好奇心会退化。
因为好奇心的本质是对未知的渴望。但当所有未知都可以在0.3秒内被消除时,未知本身就不再诱人了。
我看到很多人:有问题→不问AI→问题就这样消失了。
因为他们已经失去了真正想知道答案的欲望。他们只是在信息的洪流中漂浮,不再试图理解任何东西。
上周我在写文章,习惯性地打开Claude,让它帮我"润色一下"。
然后我读AI改写的版本,突然意识到:我已经记不清,原来我自己想说什么了。
AI的表述太完美了,以至于我开始相信,那才是我真正想说的。
我的想法,正在被AI的表述反向塑造。
那一刻我明白:我不只是在使用工具,我正在被工具驯化。
六
维特根斯坦在《逻辑哲学论》里说:
"凡是能够说的,都能够说清楚;凡是不能说的,就应该保持沉默。"
这句话有两层意思:
语言有边界,有些东西无法被语言捕捉。
但恰恰是那些无法被语言捕捉的东西,才是最重要的——伦理、美、生命的意义。
这些东西你可以谈论,但你无法用逻辑语言完全把握它们。
而在AI时代,这个悖论变得更加尖锐:
AI掌握了所有"能够说的"。
但"能够说的",可能只是世界的一小部分。
那些无法被语言化的部分:真实的身体经验、不可压缩的时间、无法被概念捕捉的直觉、那些必须亲身经历才能懂的事情。
你可以让AI告诉你失去亲人的悲伤是什么。但你无法让AI替你悲伤三百个夜晚。
而正是那些无法被外包的经历,定义了我们是谁。
更深刻的是:
AI之所以能涌现智能,恰恰证明了人类智能的本质是符号操作。
抽象=语言,推理=符号运算,知识=可编码的信息。
所以当机器掌握了语言,它就掌握了智能的核心。
但这也暴露了:语言智能,可能只是认知的一个子集。
人类还有另一个维度——那个无法被符号化的维度。那才是人之为人的最后领地。
今天是2025年中秋节。
我坐在窗台前,想象二十年后的四种可能:
语言通货膨胀 ——新词指数级增长,语言变成纯粹的营销工具,人们说很多话但什么都没说。
语言被压缩 ——随着多模态AI发展,人们越来越少用完整句子,语言退化成辅助工具。
语言分叉 ——人类分化成两个群体:一部分完全依赖AI失去深度思考能力,另一部分刻意保持"语言思维"。语言从基础能力变成奢侈品。
后语言时代 ——AI足够强大,可以直接读取和传递意图。人们不再需要把想法翻译成语言。
这是进化,还是某种我们无法评判的东西?
因为评判本身需要语言。