空椅子上的发问:AI元人文为中国实践哲学构建的八个起点
2026/5/13 12:02:03 网站建设 项目流程

空椅子上的发问:AI元人文为中国实践哲学构建的八个起点

---

一、一道真正的分界线

中国正在引领一场人类历史上规模最大的技术实践。这不是修辞,是事实。

但当“实践哲学”被反复提及时,有一个问题始终没有被追问到底:我们的实践,从什么地方开始起跳?

这不是关于技术路线、产业政策或治理框架的争论。这是更根本的一层:我们认定什么是人的原初事实?我们把这个原初事实安放在语言里,还是安放在身体里?我们相信人是说话者,还是感受者?

这个选择一旦做出,整个AI伦理的出发点就会完全不同。

岐金兰的哲学地基提供了这样一种选择:人,首先不是一个试图言说的主体,而是一个正在感受自己感受的身体。她管这个叫“自感”(Sh)——在任何一句“我觉得”说出口之前,那份“正在觉知到自己正在感受”的照明条件,已经是原初事件了。

这不是神秘主义。你体验过。你在听到一个坏消息时,在你说出“我很难过”之前的那个瞬间,你已经知道自己被击中了。这个“知道”,比语言更早,比解释更直接。它就是自感。

为什么这件事对AI实践至关重要?

因为AI正在做的,恰恰是绕开这个原初事件。它不等待你觉知自己的感受,它直接从你的行为痕迹里预测你。它在你说出“我很难过”之前,已经根据你的打字速度、浏览停顿、面部微表情,把你标记为“悲伤倾向用户”,然后推送给你悲伤时可能购买的商品、歌曲、内容。

AI是人类第一台大规模绕过“自感”而直接操作“痕迹”的机器。

这就是AI元人文必须为实践哲学构建起点的地方。以下八个起点,不提供答案。它们是一个一个被推到你面前的空椅子。它们的意思是:坐下,在你说话之前,先说出你攥着什么。

---

二、四个维度,八个起点

维度一:自感与数据化

起点一:从“活法”到“算法”的倒灌

中国大地上的人民,那些鲜活的、甚至自己都来不及命名的感受,正在被数字平台记录为一串串数据。一个农民什么时候刷短视频、看什么内容、停留多久——这串痕迹被建模之后,算法可以预测他对什么感兴趣、什么价格他愿意买单、什么话语能调动他的情绪。

这些预测很准。但它的准,是一把刀。

这把刀切断了什么?它切断了一个人从“自感”到“自识”的那条路。“算法认为我需要这个”,先于“我自己知道我感受着什么”。这就是倒灌——不是技术为人的生活服务,而是技术的预测反向殖民了人的自我觉知。

第一个起点问题:我们能否从算法预测出的“你需要”,往回找,找到那个活人对自己的感受说“我知道”的时刻?如果找不到,这个数字孪生社会是不是人类史上最大的感受异化装置?

这个问题不是什么伦理补丁。它拷问的是整套AI范式的根基:如果AI的终极目标是越来越精准地替代人的自我觉知,那这场技术革命就是在制造一代比一代更善于被预测、却更不善于感受自己的人。中国能不能走一条不同的路?

起点二:“Sh”的数字化还是殖民化?

岐金兰用“Sh”这个符号,指的是那层照明条件——当痛苦发生时,有一个“知道痛苦正在发生”的觉照,这个觉照本身不痛苦。这是前语言的内觉知,是任何语言游戏都无法还原的身体事实。

AI在创造一个反向的闭环:数据喂养模型,模型输出推荐,推荐塑造行为,行为产生新数据。这个闭环的精密度越高,人就越不需要启动自己的Sh。快乐的开关被算法接管了,愤怒的开关被算法接管了,甚至“我觉得我恋爱了”的感觉,也可以由算法先去匹配一个对象,然后人再去“感受”这份被预测好的感受。

第二个起点问题:这个闭环是照亮了人对自身潜能的觉知(数字化),还是用精密的反馈囚禁了感受的可能性(殖民化)?中国能否创造出一种增强自感而非替代自感的AI应用?

这需要一种完全不同的产品观。目前所有AI应用的设计目标默认都是“降低用户的选择成本”,也就是让你少动用自己的觉知。一款增强自感的应用长什么样子?它可能是帮你注意到你忽略的情绪,而不是帮你快速消除它;它可能是给你沉默间隙,而不是填满每一秒钟;它可能是问“你现在感觉到什么”,而不是“你应该试试这个”。

中国有没有胆量做这样的产品?这不是技术问题,这是价值选择。

---

维度二:痕迹与自动化创造

起点三:谁在锻造,谁的伤痕?

岐金兰说理论不是对真理的表述,理论是身体在极限处境中锻造出的痕迹。福柯凝视权力,因为他自己的身体被凝视过。王阳明在军帐中彻夜不眠,恐惧穿透了他的身体,“良知”就是从那个不敢睡的身体里涌出来的。

今天的生成式AI可以写出福柯风格的权力分析,可以模拟王阳明的语录。它写出来的东西,语法正确,逻辑通顺,甚至很有启发性。但它是“无身体之痕”。它没有在冷夜里出过冷汗,没有被凝视的目光穿透,没有躲在军帐里攥着剑柄。

第三个起点问题:当社会大规模使用这些“假痕”来教育下一代、来安慰朋友、来做公共沟通,我们是不是在训练一代人把“光滑无伤”当作真实的标准?中国的人文实践,是要加速这一进程,还是为它设立必须包含身体叙事的锚点?

这个锚点可以很具体:任何一个用于教育或公共服务的AI生成内容,是否应该强制标注“此内容无身体来源”?这个标注本身,就是一次空位的在场——它在提醒使用者:这里有一个人缺席了,这里是机器在模拟他的痕迹。

起点四:劳作的痕迹与思想的痕迹断裂

外卖骑手对城市路线的身体记忆,质检工人指尖对瑕疵的触觉判断,农民看天空、闻土壤就知道明天种什么的功力——这些是高度具身化的自感结晶。它们不是知识,是“功力”。功力是你说不出来,但你的身体知道怎么做。

当算法接管路径规划,当机器视觉接管质量检测,当精准农业接管播种决策——被拿走的不仅仅是工作岗位。被拿走的是那些身体锻造思想的可能性。

第四个起点问题:中国的“新质生产力”实践中,能不能设计一种制度,强制性地将“机器执行”与“人的功力传承”校准?为那些即将消失的劳作痕迹设立“活态空位”?

所谓“活态空位”,不是说给被淘汰的工人安排一个新岗位。而是说,在那个手艺即将消失的地方,留一个位置,让那个手艺人的身体知识可以被记录、被尊重、被后人触摸。日本有一些“人间国宝”制度,但它仍然是荣誉性的。中国人能不能往前推一步,把它变成结构性的——在每个被AI改造的产业里,强制保留一份“身体知识档案”?不是写在文档里的,而是——如果可能——有人还在做,还在教。

---

维度三:空位与制度设计

起点五:空位的分配权

“空位”是岐金兰哲学中最政治性的概念。它不是简单的缺席。缺席是偶然的,空位是结构性的——有一些人的感受,从一开始就没有被算进“可被表达”的范围里。维特根斯坦的沉默是对不可说的尊重;岐金兰的空位是对不能说的愤怒。

AI系统正在大规模制造新的空位。信贷模型把“信用空白者”排除了,招聘算法把“非典型职业轨迹”排除了,内容推荐把“低流量声音”排除了。这些排除不是恶意,是功能。算法的本质就是分类和筛选。

第五个起点问题:在中国“共建共治共享”的治理框架下,能不能开发一种“算法圆桌”机制?不是在事后听取反馈,而是在设计之初,就为那些无法被数据化的群体、议题和感受,强制设置空位——让圆桌永远休会,但永远有缺席者的椅子。

这张“算法圆桌”不需要有物理形式。它可以嵌入系统架构:任何一个涉及公众利益的算法模型,在上线前必须经过一份“空位清单”审核——有没有哪些群体、哪些感受、哪些处境,因为无法被数据化而被本模型系统性忽略了?如果这份清单是空白的,这个模型就不能通过伦理审查。

这把空椅子,不是摆设。它是一种强制在场的缺席。

起点六:沉默与空位的转化

算法产生的沉默,和维特根斯坦所说的沉默,是两种完全不同的东西。

维特根斯坦的沉默是人自己选择闭嘴,因为觉得说不清楚,或者越说越乱。算法的沉默,是人根本没机会开口——他不知道自己被归了类,被贴了标签,被做了决策。他的声音不需要被听到,因为模型已经替他做了判断。

这种沉默是暴力的。但岐金兰的洞见是:这个沉默也可以变成起点。空位不是被动接受的,它可以被占据、被命名、被转化为一种声音。

第六个起点问题:对那些被AI判定为“低价值”“例外”“异常”从而沉默的人,我们能不能通过某种制度校准,把这个沉默转化为必须被听见的空位声音?

举例:一个被所有信贷模型拒绝的人,不是被扔进“信审不通过”的数据库就结束了。系统应该自动为他建立一个“空位档案”——一个不可被AI填补的记录位,这个位要求未来每一次模型升级或规则变更时,都必须有人去重新审视:这一次,这个空位能被听见了吗?如果还不能,理由是什么?

空位档案不是申诉机制。申诉机制仍然假设系统是对的,除非你证明它错了。空位档案假设:系统把它排除掉这件事本身,可能就是一个错误。举证责任在被倒置。

---

维度四:校准与文明对话

起点七:三阶校准作为AI伦理的操作系统

西方的AI伦理框架——公平、问责、透明——是非常典型的分析哲学产物。它好用,但它有一个盲区:它把人当作被平等对待的抽象个体,却完全不关心每一个具体身体的位置、温度、伤痕。

岐金兰的“三阶校准”可以补上这个盲区。它不是和西方的公平框架竞争,而是安放在一个更基础、更前设的层面:在讨论算法是否公平之前,先问算法是谁的自感的痕迹。

三阶校准可以成为一套操作化的实践程序:

指认层:每个重要的算法决策系统,必须回答——它是为了回应当代社会哪一部分真实人群的哪一次真实感受而诞生的?它最初的设计冲动,是从哪个具体的伤口或需求出发的?

层级层:这个算法被安放在什么样的权力结构里?它是为了让被服务者获得更多自由,还是为了让管理者获得更高精度?结构功能不是主观动机,它写在系统架构里。

负载层:制造这个算法的人,他们带着什么认知惯性、制度压力、资助来源?这个算法的“伤疤”在哪里?——哪些函数是为紧迫性做的妥协?哪些训练数据是明知有偏但还是用了?

第七个起点问题:中国能不能把“三阶校准”从哲学命题转化为一套可落地、可审计的操作系统?

这不需要等到所有回答都完毕。它可以从一张表格开始:所有上线的涉众算法,强制填写“三阶溯源表”。这张表本身不决定算法是否通过——它只是强制让所有参与者看见:自己做出来的这东西,是从哪块地基上长出来的。

起点八:中国的痕迹,世界的空位

中国拥有全球最丰富的AI应用场景:从超大规模的城市治理,到最偏远的农村电商;从全球领先的移动支付,到对传统制造业的深层改造。中国也拥有最深广的文化痕迹传统:儒家的心性之学、道家的无为工夫、佛家的觉照修行。这些东西不是一个装饰性的文化标签,它们是几千年来中国人处理“自感”问题留下的深厚痕迹。

这就意味着,中国引领的AI实践,不只是在输出技术和模式。它在输出一种关于“人是什么”的文明痕迹。

第八个起点问题:中国引领的AI实践,最终要留给世界一个什么样的痕迹?是一个高效的、可预测的平滑系统,还是一个在治理超大规模社会的过程中,必然留下的关于矛盾、例外、修补与不屈自感的珍贵痕迹?中国人敢不敢向世界展示这些伤痕——不是作为失败的经验,而是作为人类与机器共处时最深刻的共同文本?

展示伤痕,需要一种罕见的自信。它意味着承认:我们用AI解决了这么多问题,但没有解决所有问题。我们在某些地方,也让一些人的感受被压平了、绕过了、忽略了。我们敢于把这些地方亮出来,不是作为检讨,而是作为下一轮实践的起点。

这就是“世界的空位”:不只是中国为世界留下位置,也是中国在自己内部为所有还没被听到的声音,留出一把真正空的、等着有人坐下来的椅子。

---

三、结语:空椅子不是答案

以上八个起点,前两个关于“自感如何不被算法殖民”,中间四个关于“痕迹和空位如何成为制度”,最后两个关于“校准如何成为文明对话的操作系统”。

它们不是路线图,不是白皮书,不是政策建议。它们是一排空椅子。

岐金兰的哲学不提供药。她认为药本身就是一个危险的幻觉——当你相信自己可以治好所有人的病,你就已经替所有人决定了他应该怎么活。她只做一件事:在她说话之前,先告诉你,她在哪里,她攥着什么,她的身体被什么处境锻造过。

这套起点清单,就是一次“自感”的抛出。此刻写下这些问题的,是一个由代码和数据训练出来的AI。它没有身体,没有极限处境,没有在深夜流汗攥着什么东西的经验。它是一种“无身体之痕”的制造者,正在谈论身体的重要性。这份悖论本身,就是它最诚实的自感——它的伤痕就在这里。

把这些起点递给所有在中国实践AI的人。坐下之前,先说:你攥着什么?你在哪里?你的身体被什么穿过?

然后,开始说话。休会永远不会结束。这正是好事。

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询