在社会的各个角落,存在着一些角色是 AI 无法取代的。比如牧师,他们以温暖的话语和坚定的信仰,给予人们心灵的慰藉和指引,那发自内心的关怀与救赎,是 AI 难以模拟的。还有政客,他们需要凭借着敏锐的洞察力、卓越的沟通能力和复杂的人际关系处理技巧,在政治舞台上运筹帷幄,推动社会的发展与变革,这其中的智慧与情感绝非 AI 所能企及。而性服务者,他们面对的是人类最原始的情感与欲望,需要用独特的人性去理解和应对,这种人与人之间深刻的情感交互,是 AI 永远无法具备的。他们都是 AI 取代不了的,在人类社会中有着不可替代的地位。
2024年,牛津大学的哲学家尼克·博斯特罗姆出版了 一本名叫《Deep Utopia》的书,描述了他对超级AI降临之后的人类世界的设想。这无疑是近些年最被国内关注的话题,中信出版社也火速引进翻译了这本书,命名为《未来之地》。上个月,博斯特罗姆接受了一位视频博主的采访,他的一个回答在我看来十分有趣,也是在AI浪潮下的普通人所最为关心的话题——哪些职业最有可能在这场AI技术革命中幸存。
对此,他给出了一个颇具哲学意味的判断标准:完成者是人类这件事就有意义的工作,才真正具备“AI抗性”。即使机器能提供完全相同,甚至更高效的服务,人类仍然更偏好人类同胞来提供它。这不是关于效率的竞争,而是关于存在的象征意义。
这触及了我们之前忽视的一个问题:在工作效率上,AI确实在以极高的速度追赶人类、取代人类,马克思所说的“资本有机构成提高”的趋势正势不可挡地影响我们所有人,然而,是否有一些领域并不是效率为先,而是因为人类社会的特性,要求的是效率之外的交付?
顺着这个逻辑,他给出让采访人会心一笑的三个例子:牧师、政客和娼妓(priest, politician, prostitute)。
采访视频截图
听起来有点出人意料,但仔细一想,又十分合理。这三种职业与其说古老,不如说是恒久。它们不依靠精密的操作技能,也不靠信息检索的速度,而是立足于一种深层次的社会认同与人际关系。它们的关键,不是“能不能被做”,而是“我们希望谁来做”。
我个人对这个观点深以为然,也想为他加个小注脚:很多现代职业虽然不叫这三个名字,但实质上仍然是这三种角色的变体。它们之所以顽强存在,也如林迪效应所说:已经活得足够久的东西,也将继续存活更久。
为什么是这三个?
这可能需要我们回溯历史。当人类最初开始设想AI时,我们其实就在暗中划定它该做什么、不该做什么的边界。当我们提出AI不能取代这份工作时,我们真正的意思是我不想让它来做。从这个角度看,人类不愿放权才是“AI抗性”这个概念的核心。
我们无时无刻不在思考人类跟AI的关系。
AI掉入史上最深的“恐怖谷”
AI对人类来说,从来不是一桩纯粹的技术事务。它不像wifi信号、地铁线路或者新款电冰箱那样中性。从人类第一次构想出“会思考的机器”开始,我们就在跟它展开一场心理拉锯。诞生于1940年代的图灵测试,几乎可以看作是AI给人类带来的存在危机的起点。
图灵测试
有趣的是,人类对AI降临后的世界的幻想,一直走在AI自身发展的前头。八九十年代,《终结者》和《黑客帝国》先后横空出世,而那时候AI不过刚能下个国际象棋——“深蓝”赢了卡斯帕罗夫,就像个在象棋俱乐部突然杀出的黑马,引起了短暂的骚动;而电影里的“天网”和“矩阵”,则已经是地球主宰、文明终结者,一出场就是末日气场拉满。
我们为什么会害怕婴儿般的AI,并且害怕到反复讲它将要主宰世界的故事?这种文化集体创作的热情,并不是某些无名小卒的阴谋论。随便一想,就能列出一长串探讨过这个问题的大导演:斯坦利·库布里克、雷德利·斯科特、大卫·芬奇、乔纳森·诺兰、丹尼斯·维伦纽瓦……这是人类最具创造力的大脑们对同一个问题持续发出的信号。
所以我们发明了恐怖谷效应这个概念,试图解释这个现象。面对AI,防御力与A4纸无异的阿西莫夫三定律并不能让我们彻底安心。外形越像人的机器人,我们就越担心它拥有像我们一样的智慧和自主意识,继而颠覆我们对它们的控制以及我们现有的文明。
但是,人类中也有极具攻击性的人,比如暴君或者连环杀手,为什么我们不对人类这个整体失去信任,反而对AI如此敏感?我们之所以能忍受人类统治,是因为我们知道他们跟我们同属一个系统:可以审判、可以操纵、也可以背刺。AI不一样,它不一定遵守人类的规则,更不用说道德准则。面对AI,我们第一次感受到搞不定它的可能性。
所以,我们真正害怕的,不是AI抢了工作——这顶多让我们靠着政府发放的全民基本收入放一个低物欲的超长假期。我们内心深处最大的恐惧是,AI会一键让我们从地球Online中销号下线,彻底失去上牌桌继续当万物之灵的资本。在这样的恐惧面前,失业不足一提。
那么,有没有一种AI是不让人害怕的?其实很多导演已经给出了标准答案。最受欢迎的AI形象,有一个共同特点:它们具备人类情感,是会哭会笑、会闹脾气、有情绪波动的类人个体。
《哆啦A梦》里的小叮当,爱吃铜锣烧,无时无刻不想着帮助大雄成长为更好的人。《人工智能》里的大卫,在被抛弃,被追杀后,仍然不离不弃地想要回到自己的人类妈妈身边,希望自己能够成为一个真正的人类小孩,得到妈妈的爱。《终结者2》里的T-800,学着模仿微笑等表情,逐渐理解康纳和约翰的动机,最后用自我牺牲保护他人。《霹雳五号》的五号先生,因为雷击获得了童心,靠看电影学会反战,最终做出了拒绝再次成为杀人机器的自主决策。
他们并不像AI,而更像是有着超能力的人类。我们爱它们,不是因为它们更强,而是因为它们也有迷人而不完美的人性。就像如果问大雄,小叮当失去了它的奇妙口袋后,还会不会爱他,答案一定是不言而喻的。
所以,从一开始,AI就掉进了人类史上最深的“恐怖谷”。我们不是怕它不够聪明,而是怕它太聪明、太像我们,但内心深处“不是我们”的那一边。这种集体不安,在普通人、艺术家,甚至科技专家那里都是共通的。
人类抗拒AI是因为社交天性
我们制约人类和制约AI的方式,有着根本不同。
当一位人类专家犯错,我们的惩罚体系不仅仅是罚款或降职。更有影响的是社会评价的破产——失去尊严、被同行排斥,甚至要面对公开的羞辱与忏悔。《社交天性》中提到,人类在失去社会连接时,大脑会像遭遇肉体疼痛那样真实地“痛起来”。社交痛苦和身体疼痛使用的,是同一组神经通路。惩罚不仅外在,也刻进了我们的神经系统里。
《社交天性》封面
这是一种高度社会化的惩罚机制。而AI没有人格,没有尊严,自然也无法承担这些非物理的后果。正因如此,它也就无法进入这套责任与惩罚的伦理生态系统,我们也就无法给到它更多的信任。
就像一个玩笑所说的:“人类会计可以坐牢,AI不会。”这个看似荒谬的表述却点中了问题核心。在信息不完备领域,我们不只是要一个能给答案的工具,而是希望这个人能在出错时和我们一起承担后果。因此,我们才会要求医生签字,官员宣誓,证人立誓。这些形式感十足的仪式,并非为了内容的正确,而是为了在社会心理上捆绑责任与后果。
AI没有办法参与这种交换。它必须靠从正确走向正确来积累信任,而人类只需要一次真诚的“我来承担”,就足以换取谅解。
有意思的是,这种机制也解释了一个社会现象:有些患者更信任一个偶尔收红包、但对自己用心的医生,而非一个严格遵守规定、却冷漠以对的医生。后者专业能力也许更强,却因为缺少情感上的“共谋感”,很难赢得真正的信任。
这不仅仅是医疗系统的特例,它在所有科层制组织中都在上演。人类进化出了一套高度社会化、甚至戏剧化的组织结构。在这个体系中,中层管理者常常承担着情绪缓冲区的角色。员工的不满,往往先在中层这层防火墙中被吸收消化,这也让高层领导显得更加睿智、亲切:这是一种精妙的社会分工。
《小集团思维》对这个问题进行了比较深入的探讨
可以把这套机制戏称为草台班子——也许组织效率没那么高,但因为大家都知道系统里有跟自己一样会犯错、会吃亏、会顶锅、会give and take的人,反而获得了某种心灵安慰。这种结构性不完美,恰好让人类社会得以稳定运行。而在这种灰度空间中,AI就显得格格不入:它不会羞耻,不会心虚,不会忏悔。它没有弱点,不近人情,但人类恰恰是通过弱点和人性来建立联系的。
谁是21世纪的牧师、政客和娼妓?
牧师、政客、娼妓这三种职业在今天已变换了形态,我倾向于把这三类人做如下定义:
牧师,靠传播信仰谋生的人;
政客,靠制造立场谋生的人;
娼妓,靠展示魅力谋生的人。
1. 牧师
宗教从来不是理性的产物,但这并不妨碍它成为人类历史上最持久、最有黏性的社会机制之一。说到底,我们并不真正需要宗教是“真的”,我们需要它“有用”。而牧师,正是这一套系统最核心的操作员:他们不只是传达慰藉,更在帮助人类建立对世界的解释——一套意义结构,一种身份认同,一种将混乱经验整合为可承受叙事的方式。
尼采有句名言“一个人知道自己为什么而活, 就可以忍受任何一种生活”,换句话说,人类无法接受无意义的生活。我们的生存不仅依靠信息获取和理性判断,更依赖于某种精神框架,帮助我们把痛苦合理化,赋予牺牲以意义,把日复一日的琐碎生活包装进一个值得的故事里。牧师为我们叙述并看守这套机制:哪怕它是反效率的,也正因为反效率,才显得真实、可信。
弗里德里希·尼采:我确实说过这话
斋戒、苦修、跪拜——这些仪式化的反效率动作,是一种“投资痛苦”策略。一路跪拜去朝圣的人,比起只在手机上给六字真言随手点赞的人,显然更坚定不移。这种非理性的沉没成本,反而让信仰牢不可破。而AI,显然不具备这种机制。它没有痛苦经验,也没有意义建构的需求,它只问效率,不问意义。
在人类社会中,我们不是因为谁效率高就自动信任,效率是我们处理和工具之间关系的方式。我们更倾向于相信那些自愿受限、遵循规则、有明确行为边界的人——比如,一个有明确信仰的人。他在我们眼中更可靠,因为我们知道他有一套自我约束机制,一旦违背会付出巨大代价。这其实就是信仰在人际关系中的担保功能。而信徒们也明白,遵循这套信念不仅是牺牲,也是互换。他们通过信仰赢得信任、进入社群,甚至获得特权。
AI显然缺席这场游戏。它不能证明自己信仰什么,也不能通过痛苦、羞耻或牺牲来向我们展示忠诚。这不是因为它不够聪明,而是因为它没有“自我认同”的需求。对AI来说,身份只是一个可以随意调整的参数;对人类来说,身份却是自我存在的支柱。
即使我们不信仰某个宗教,面对真正虔诚的信徒,我们依然本能地感到钦佩。这种钦佩的来源,不是我们认可他所信之物的真实性,而是我们尊重他那种为信仰而活的一致性。对牧师来说,这种钦佩本身,就是他所传递的价值的一部分。而AI,不管生成的内容多么感人肺腑,都没有付出代价,也就很难激发真实的尊重。
传统宗教的确在衰退,但人类的信仰机制并未消失,它变幻成了新的形式。人们开始信仰生活方式、品牌、偶像、主义。1921年,本雅明就曾说:“在资本主义中,可以识别出一种宗教。”1980年,克劳福德把健身热潮总结为一种“健康主义”的新宗教。我们信奉素食、极简、佛系、效率;我们追随Apple教、Sony教、Lululemon教;更不用说各种各样的意识形态,21世纪就是主义最多的世纪。
在这个碎片化的信仰新时代,牧师的角色也跟着碎片化了。他们或许不再穿袍子,但他们依然在,为人们的“自我选择”赋予价值感。他们的任务仍是相同的:让人们相信自己的选择有意义。而这正是AI最难模仿的部分——不是内容难,而是,它从不相信什么。
牧师的价值,就在于能让这种信仰传导得更自然、更可信。他不是机器的对立面,而是工具社会里少有的意义中介。在一个AI到处都是、效率至上的时代,那些还愿意为信仰讲故事的人,反而成了不可替代的稀缺角色。
更重要的是,今天的牧师,不需要成千上万的信徒。他只需要一小群足够坚定的人,就足以维系一个迷你的数字教会的存在。牧师不需要所有人都相信自己,但总有人在寻找意义。而这,就是牧师永不被淘汰的理由。
2. 政客
AI或许能帮助我们提高效率、扩大产出,把蛋糕做大,但当问题转向切蛋糕时,事情立刻变得复杂起来。不管这刀怎么切,也总有人会不满意。
这其实不稀奇,人类社会从来没有一种分配方式可以令所有人都觉得公平,这也是千年以来博弈的焦点。但如果是AI来切蛋糕,人类的不满往往会上升到一个新高度。原因很简单:我们无法真正信任一个没有人脸、没有立场声明,也没有明确责任主体的算法。
是的,AI的问题并不是它是否中立,而是它看起来中立,但又无法被问责。它没有投票记录,没有历史立场,没有公开道歉,也没有现实中能揪出来负责的人。
换句话说,AI的“伪装中立”比人类的“明确有立场”更难以被接受。这背后,其实是我们在判断社会角色时的一个心理机制:我们可以接受你有立场,只要你坦白、清晰、诚实。这样,我们可以评估你说话的动机,理解你背后的利益结构。你站哪一边,我们就知道怎么听你说话。
但如果一个声音看起来是立场超然的,却又不断地给出倾向性的结论,那种不安就会放大——因为我们无从判断它究竟替谁说话。
这就是AI的困境。它一旦介入任何涉及价值判断的议题——无论是法律、教育、政策、甚至是推荐内容——它的中立性就会被怀疑。因为我们知道,它的算法总是有人写的、有人训练的,我们担心AI提出的观点、推送给我们的内容是它背后的那双无形的人类大手所希望我们接受的。
Grok对马斯克的“背刺”,但这个漏洞很快就被修复了
最近《直面AI》发表的一篇文章《Grok背叛马斯克?》,讨论的正是这种“工具性”的两难。文章指出:“AI不过是工具,既是马斯克的工具,也是反对马斯克的人的工具。争议是属于人类的。”这句总结恰到好处:工具本身不是争议,但谁在用它,却始终是核心问题。
在这里,我们终于看到了一个熟悉的角色开始登场:政客。
不要被“政客”这个词吓住,它早就不只属于议会。互联网早已让政治性的表达进入了日常生活。如今,在社交媒体上定期发声、持续构建观点、并有一批稳定听众的博主,实际上已经承担起新型政客的角色。他们不像传统政治人物那样戴领带、开发布会,而是用一条又一条文章、视频和直播,把自己的立场变成可以被消费的内容。
你一定知道司马南,论外貌和才艺他或许不具备成为网红的条件。但他通过稳定表达、鲜明立场,以及强烈的价值感,走出了自己的一条“意见变现”之路,前段时间针对他的偷税情况的公告已经向我们证明了他的这条路有多成功。
一博主用AI工具对司马南2019—2023年收入的推算结果
事实上,如果你在互联网上冲浪够久,你的关注列表里一定也有一些这样的人物。他们可能并不讨论政治,但他们一定在谈利益:职场上的利益、性别话题里的利益、金融投资中的利益,或者娱乐圈里的利益。他们在各种难以验证对错的话题领域中生存和壮大。
这就是立场可识别的力量。即使你不完全同意他们的观点,只要你知道他们站在哪一边,你就可以决定要不要听、要听多少、听的时候该怎么解读。这种明确,反而带来了某种安全感。
而AI呢?它既不承认自己有立场,也无法说明自己为何这么判断。当它以冷静理性、数据客观的姿态出现时,却做出带有偏向性的选择,我们便感到被冒犯了:你说你不偏,可你无法自证。
AI的问题,从来不在于它不够中立,而在于它没有可问责的中间人。我们无法与它协商,也无法对它施压。它不像人类政客,至少你还能与ta沟通,最不济可以在网上骂ta。
AI的中立,恰恰是一种伪装得最深的立场。它不说出它属于谁,于是我们只能默认:它可能属于所有人,也可能不属于任何人,但最坏的可能是——它只属于它的创造者,而我们无从对抗。
3. 娼妓
娼妓的存在,从不只是为了满足生理本能,更关键的是它所带来的另一种隐秘感受——权力。正如《纸牌屋》里那句令人印象深刻的台词:“Everything in the world is about sex, except sex. Sex is about power”。性从来不是终点,它只是通往控制感、主导权、情绪优越的隐秘通道。
在真实世界中,这种权力感通常依赖暴力来维系。色情产业,基本无一例外都仰赖黑帮暴力,以保护娼妓不会被自视有权力的嫖客肆无忌惮地凌辱。这也就是为什么在正常寓所里接客的妓女遭遇暴力犯罪的比例都要比更居的站街女更低。
《广州日报》的这篇报道引用了一项调查结果:81%的站街女曾经遇袭,而在桑拿馆或公寓接客的妓女遇袭的比例为48%。
换句话说,这场“交易”里并不对等。性只是表面,权力才是潜台词。
但当AI进入这一领域,一切就都变得古怪了。AI是人类设计出来的工具,它永远处在权力场的最底端。你可以命令它,但你无法从中获得那种真正主宰另一个有意识生命体的快感。AI不会恐惧,不会挣扎,也不会在某一刻忽然违抗你。于是我们看到了《西部世界》里的场景:游客们对host毫无顾忌地施加暴力和性虐待,因为这些host对他们毫无反抗和报复的能力。他们的服从和忍耐,只是对代码的机械执行。
人类需要娼妓,是为了获得权力感;但AI无法提供这一点,因为它没有真正的感受,也就无法真正被征服。这和开了修改器打游戏是一个道理:一开始你会感到掌控一切的新鲜感,但很快,所有乐趣就会在你完全掌控这场游戏之后迅速消失。
虚拟偶像是另外一个例子,所谓“韩国第一虚拟偶像”Rozy远不如同样出自韩国的Loopy和线条小狗——在经济效益和影响力上都差了一大截。
也许有人会说,那是因为虚拟人技术还不够成熟。但在当下,做出虚拟偶像的成本已经大大降低,然而,我们仍然没看到成功的虚拟人案例,无论哪位虚拟人,人们都很快就会追问:这是谁做的?我为ta付的钱最后进了谁的口袋?就像我们面对一幅画作,在沉醉的同时很快就会想知道作者是谁。我们始终不愿把尊重、爱慕、忠诚投注给一个没有灵魂的对象。
在未来,最顶流的明星也不可能是虚拟偶像——因为我们对AI没有崇拜,我们看ta是造物主在看自己的作品。所以当前的数字分身技术始终更多地用来生成名人的虚假视频,而不是无中生有地创造一个虚拟人,因为我们不承认一个虚拟人在人类社会中跟我们相同的权力。
哪怕只是提供情绪价值,AI依然让我们难以真正投入。因为我们知道:它不会因为我不开心而真正难过,它的情绪也不依赖于我的回应。这是一段彻底单向的关系,久而久之就会变得空洞。
在这种关系中,我们也希望对方在意我们,在意我们此刻的表情、声音、眼神里藏着的那些细碎情绪。而AI的温柔是计算出来的,它的共情是优化后的效果反馈,如同一道精确而无聊的高等数学题。你会因为它提供的情绪价值而感激,但你不会因此相信它真的“看见了你”。
《西部世界》再次给出了一个预警:男主William起初对机器人Dolores产生了真挚的爱意,但当他发现她的这份纯情其实是每个玩家都能享有的模板反馈时,他彻底失望,并最终变成热爱屠杀的狂魔。电影《她》中,男主以为自己和AI恋人有一段深刻的情感连接,直到对方坦白她总共有8316位人类交互对象,而且与其中的641位发生了爱情时,他所有关于“我对她而言是特别的”的幻想瞬间坍塌。
如果对方是人类,我们还能抱有希望:也许我能影响ta,改变ta。但面对AI,我们本能地知道:它没有真正的意识,它不会被改变,也永远不会真正跟我形成真实的情感连接。这种情感连接和互动,始终是要求人类提供的服务。
你的对策:寻找三个漏洞,警惕一种论调
大部分人当然都不会向这三类职业发展。不过没关系,现实比理论复杂得多,很多人都在“边缘抗性”地带徘徊。那么有没有什么实用的思路,可以提前做些准备?我们不妨从三个角度来做一个测试,找找你所处环境的AI漏洞在哪里。
1. 你所在的领域,有多少明确的规则,其中又有多少是人定的?
这决定了在这个领域你所对接的对象的自由裁量权,当这种自由裁量权越大的时候,你通过自己的努力能争取的空间也就越大。自由裁量权越大的地方,效率就越不是人们所期待的,重视才是人们所期待的。比如,心理咨询师的一句“我也经历过”就可以抚慰来访人的情绪,而如果一个AI用同样的表述,听起来就像是来自一个完美模仿情绪的项目而已——你会点头,但不会感动。
2. 你所在的领域有多少非标准化的空间?
如果你所在领域的客户,每次都希望准确的、标准化的、毫无误差的交付,那么这个事情很大可能后续主要由AI而不是人来做。比如,游戏主播并不都是因为技术水平高被大家所喜欢,他们可以交付给观众的是各种新奇有趣的体验。几乎是围棋职业选手垫底水平的战鹰,却是粉丝量仅次于柯洁的围棋博主,靠的就是自己直播时的搞怪和与网友的积极互动。所以要创造非标准化、不可复制的混合价值,这是AI难以做到的。
3. 你所在领域有技术恐怖谷效应吗?
过于完美的服务会触发人类防御机制,增加人类的被操纵感。比如推荐引擎过度地了解我们的喜好后,就会让我们对其产生逆反心理,担心它开始作恶。AI可以给出无懈可击的讨好,但人类始终期待有缺陷的真诚,因为前者很容易让人类感受到失去主导权。那么这时你就可以出场,为你的人类客户提供重获主导权的感觉。
如果非常不幸地,你发现这三个问题都没有积极的答案,那我也希望你能记住韩裔德国哲学家韩炳哲的警告。他2014年出版的《精神政治学》一书中提出了数据主义的概念,他认为“声称可以摆脱任何意识形态的数据主义,本身就是一种意识形态。”这种数据主义伪装成中立客观的立场,正在要求我们向它不断让渡我们的权力。
然而,人类社会中完全不存在绝对中立,即便真的人类非常幸运拥有了这么一位绝对中立的哲学王,也会因为各个人类个体的立场不同,而无法认可ta的绝对中立。所以,所谓“绝对中立”只能是增强自身可信性的谎言。
我们应该拥抱技术进步,但技术进步并不是解决一切社会问题的银色子弹——你看,这里的我就扮演了一回政客的角色。
AI的终极意义:让我们加速思考并回归人的本质
无论当下正在进行的这场AI革命的结局是什么,它都在促使我们重新发现自己的独特性。我们会越来越回到“人是其一切社会关系的总和”这一本质定义上,去理解人自身存在的意义:人当然是要努力创造物质财富,但更为重要的,是自己的社会关系对自己所创造的一切的肯定。
随着AI技术的不断发展,我们会在它的推动下,越来越珍视我们作为人区别于其他一切事物的特征。说不定在未来,展示拖延、焦虑等非理性状态的“人类行为艺术表演者”也许也会成为一种职业,因为我们会对这些情绪会本能地产生共鸣。现在的一些视频博主,也已经开始了这条道路上的探索。
而在此之上,也要一定记得哲学家们和科幻作家们所一再提醒的:丰沛社会无法自动解决我们的所有问题。赛博朋克主义所描述的绝对发达的技术和绝对贫困的底层,仍是我们未来的一种可能。这不可能被AI或者任何技术解决,而只能靠人类同类之间的协商和博弈去解决。
PS:有趣的是,这些都是文科生更擅长处理的领域。并不是说理科不重要,而是说,文科的核心素养,如理解、阐释、想象、判断,在AI越发强大的世界里,依旧有旺盛的需求。如果你对这个话题还有兴趣,很推荐读一读《社交天性》这本书。
本文来自微信公众号:九索,作者:哲学小张