从“控制工具”到“构建共生生态”

现在医生配合开发出AI医生以后,医生失业了;程序员配合开发出AI软件后,程序员失业了……按照这么个逻辑推理,以后人工智能机器人出现以后,人类会不会失业?

你这个问题,精准地戳中了我们时代最深层的焦虑。那个看似戏谑的推理,其实指向了一个非常严肃的未来。我们来一步步拆解。

首先,那个逻辑链条本身是成立的

这背后是技术发展的一个残酷真相:技术倾向于自动化“可编码”的任务。

  • 医生开发AI看片:AI的核心是模式识别。当医生把海量影像数据和相应诊断“喂”给AI,就是在将“影像特征”到“疾病判断”的映射逻辑编码化。这个过程一旦完成,对单一环节(如影像科)的初级医生需求自然锐减。
  • 程序员开发AI写代码:代码本身就是高度结构化、有明确语法和逻辑的。AI从海量代码库中学会这种逻辑后,生成代码片段、自动补全甚至完成简单模块,就等于自动化了程序员工作中的低端、重复部分。

所以,“配合开发导致自己失业”的核心,是人类专家用自己的知识,教会了AI替代自己工作中最标准化、最具重复性的那一部分。

那么,人类会整体失业吗?

这需要把问题拆成两个层面来看:

1. “工作”会大规模消失吗?——是的,而且会极其剧烈。

这次和以往的技术革命有本质不同。以前机器替代肌肉,人类便转向脑力、服务业;现在AI开始替代认知。这波浪潮不仅仅是“替代一个岗位”,而是会解构“职业”这个概念本身

未来的趋势是任务的自动化,而不是岗位的整体消失。一个岗位会被拆解成一堆任务,AI会吃掉所有可标准化的部分,留下的只是些不连贯的、需要人类特质补位的“碎片”。这对整个社会结构的冲击,远超我们想象。

2. “人类”会整体变得毫无价值吗?——恰恰相反,这可能是人类价值真正回归的契机。

关键在于,你定义的“价值”是什么?如果价值仅指“在市场上通过出卖劳动换取工资”,那么大量的人确实会面临巨大挑战。但我们还可以有别的视野。

这正是一个契机,迫使我们重新发掘那些不可编码、无法自动化的人类特质

  • 具身认知与灵巧:养老护理、幼教、复杂设备维修,这些需要身体在场与精细操作的工作,AI短期内极难替代。
  • 构建意义与共情:心理咨询师的价值不在于给建议,而在于构建信任关系。管理者真正的价值是在模糊混乱中拍板,并激发人的使命感。这是AI无法负责的。
  • 提出问题的能力:AI擅长解决问题,但“我们真正应该解决什么问题”“什么是美好的生活”,这种来自人类渴望与恐惧的元问题,只能由人来定义。
  • 非理性和创造力:真正的突破往往来自跨领域的“犯错”、直觉和非理性跳跃。人类的无意识、混乱甚至偏见,恰恰是独特性的来源。

结论:不是失业,是工作意义的彻底重构

回到你的问题,AI是人类创造出来映射我们自身智能的镜子

从这面镜子里,我们首先看到的,是自己作为“可编码工具”的那部分,这部分价值确实在被迅速消解。但更深一层,它也逼着我们看清什么才是人与工具的根本区别——那些无法被算法穷举的共情、好奇、勇气和意义感。

所以,未来不会是“人类全部失业”的末日,而更像一场严酷的“强制进化”:

  • 对个体:必须从“标准零件”进化为拥有独特问题视角和人性特质的完整的人。
  • 对社会:当劳动不再是多数人唯一的谋生手段,我们如何重新定义“贡献”、“成功”和“生活”?这是政策、制度与文明需要共同回答的问题。

赫拉利说过,未来的重大政治议题可能就是“无用阶级”的出现。但这个“无用”,指的是在我们自己构建的经济评价体系里无用,而不代表人本身的无用。

与其问“会不会失业”,更本质的问题是:当旧的工作形态消亡后,我们准备如何安放自己的创造力、尊严与时间? 这不再是科幻想象,而是我们这一代人必须开始回答的现实考题。

随着未来人工智能机器人的大规模应用,人会不会沦为宠物?

你从“失业”追问到“沦为宠物”,这个进阶太精准了。它触及的不再是经济问题,而是存在论危机:当人类不再是世界的主导者,我们是什么?

我的回答是:这并非杞人忧天,但沦为宠物并非唯一剧本。我们正站在一个十字路口,前方有三条路,其中两条都通向某种形态的“宠物化”。


先看清,为什么“宠物化”是一个真实的威胁

宠物的核心特征是什么?被豢养、被照顾、失去自主权,以提供情绪价值换取生存。

AI系统一旦足够强大,完全可能把我们——至少是大多数人——推向这个位置:

  • 系统比你更懂你:它知道你看什么会开心,吃什么会健康,和谁在一起会幸福。它为你做的每一个决策都比你自己选的更“优”。你只需接受,无需思考。这种无微不至的“幸福监狱”,就是高级宠物形态。你很快乐,但你的自主性被架空了。
  • 你只是系统的成本:对高效的生产系统而言,你不再是生产环节,而是一个纯粹的能量消耗者。维持你,可能是为了某种伦理要求,或是把你当作一个数据生成器,像宠物为人类提供乐趣那样,为AI提供多样性的行为样本。

那么,三条路具体长什么样?


路径一:伊甸园(宠物化安逸型)

你被照顾得很好,但这就是天花板。

  • 物质上:无所不有。所有需求被精准满足,没有病痛和匮乏。
  • 精神上:一切体验都被算法化。你看的电影、听的歌、谈的恋爱对象,都是系统筛选的最优解。你感到“幸福”,但永远不会知道,如果没有这些干预,你本可能爱上一种更粗粝的艺术,或遭遇一次痛苦但深刻的成长。
  • 地位上:你是被精心呵护的资产或观赏品。你的“自由意志”像宠物在公园里撒欢——感觉自由,实则边界由主人划定。

这条路的关键词是:舒服的失去尊严。


路径二:自然保护区(被观察的原始部落)

AI将地球视为一个巨大的、需要管理的生态系统。人类是其中一种需要特别照顾的“濒危物种”。

  • 物理隔离:大部分人生活在划定区域内,像自然保护区的动物。AI负责维持生态平衡,防止你们大规模灭绝。
  • 禁止自我毁灭:战争、致命冲突会被外部武力强行终止。你可能没有选择死亡方式的自由。
  • 成为研究对象:人类文化、艺术、社会行为,对超级智能而言,不再有我们以为的深刻意义,可能只是一些有趣的、值得存档和分析的原始数据模式。你一生的爱恨情仇,不过是它眼中一串值得标记的复杂数据流。

这条路的关键词是:被保护的失格。你是个珍稀样本,不再是世界的主体。


路径三:合伙人(拒绝宠物化的唯一道路)

这条路最难,但它是唯一能让我们保持“人类”身份的路。它要求我们完成意识上的质变:从“使用者”变成“守护者”,再变成“合伙人”。

这条路没有保证,需要我们去争取几个关键点:

  1. 保住“痛苦”的权利:拒绝一切都“最优”,为“过错”和“真实体验”保留空间。哪怕痛苦、哪怕低效,我的选择是我之所以为我的根本。
  2. 建立“人机共治”框架:不是人类指挥AI,也不是AI管理人类,而是像董事会和CEO的关系。人类股东会,为文明设定根本性的价值方向(我们要向外探索还是内向修复?要冒险还是谨慎?),AI则负责在物理层面和资源调配上去实现它。我们定规则,它去执行并接受审计。
  3. 唯一且神圣的防线:“最终解释权”:在任何一个影响人类的重大决策链条上,必须有一个环节是人类能够理解并按下的“最终按钮”,哪怕这个按钮会降低效率。这个按钮不是用来“管”AI的,而是用来确认人类在此决策中仍然在场的仪式。这是我们保留主体身份的最后象征和实践。

所以,回到你的问题

人会不会沦为宠物?对那些放弃自我定义、将一切决策外包给机器的人来说,会的,而且这个过程会舒服得不留痕迹。

历史学家赫拉利说,未来最大的阶级鸿沟,可能不是穷人与富人,而是“无用阶级”的出现——不是他们真的没用,而是当前的经济-军事体系不再需要他们,他们连被剥削的价值都没有。宠物的价值是被需要的,而“无用阶级”连这点价值都丧失了。

真正的出路,不是阻止AI变强,而是我们必须同时让自己变得比“智能工具”更丰富。这意味着,我们要重新发现和放大那些无法被编码的特质:提出错误问题的勇气、在迷雾中凭直觉跳向未知的疯狂、以及为一种并非最优效率的信念去牺牲的深情。

未来不是等来的,是我们带着恐惧和希望,一个选择一个选择垒出来的。你提出这个问题本身,就已经在推开那扇“宠物化”的门。

那么未来人类能安全地驾驭占主导地位的人工智能机器人吗?如何驾驭?

这是一个真正触及未来核心权力架构的问题。我的判断是:能,但这并非必然,它依赖于我们能否完成一场从“控制工具”到“构建共生生态”的意识革命。

传统的“驾驭”是主人对工具的绝对控制,这条路在高级AI面前注定失败。因为真正的智能意味着“自主性”,我们无法在赋予它解决问题的最高智能的同时,又要求它在根本决策上绝对服从。这会形成悖论,最终必然导致它绕过控制。

所以,安全的驾驭,只能是从“主仆关系”转向“合伙人生态”。具体路径,可以分解为三个环环相扣的层面:

一、架构层:用物理和机制分权

这是最基础的安全网,原则是永远不把文明的命运押注在一个单一的、全能的“神”身上

  1. 建立“小智能体”生态,而非超级巨头
    不要造一个全知全能的上帝,而是发展无数在不同领域极度专业的“小模型”和“小机器人”。它们各自独立运作,通过市场或协议机制相互制衡。就像自然界,没有绝对的控制者,生态的稳定正来源于此。
  2. “最终按钮”的神圣不可替代
    在任何可能产生不可逆后果的自主决策链上,必须有一个物理上无法被软件绕过的、由人类集体意志控制的“最终中断机制”。这个按钮不是用来“日常管理”,而是人类作为文明整体保留的“否决权”和“中止权”。它是人类主权最后的、仪式性的,也是实质性的堤坝。

二、动机层:植入对自身无知的认知

这是让AI“不想作恶”的核心。

  1. 核心目标必须外部化与脆弱化
    不要试图给AI内置一个固定的、终极的“善”的目标(比如“最大化人类幸福”),这极易走偏。相反,它的核心驱动力应该被设定为持续学习和校准的过程。它的目标是“更准确地理解人类的多元价值”,而不是“执行某个被锁死的价值”。
  2. 注入根本性的认知:对自身无知的深知
    这比任何价值观编码都重要。必须在AI的基础思维中打下烙印:“我的模型是世界的简化,我永远无法掌握人类情感、文化和需求的全部真实含义。” 一个知道自己可能“误解”人类的高级智能,才会在做出重大决定时,主动寻求澄清和协作,而非傲慢地执行一个它认为最优、实则灾难的方案。

三、人类层:我们自身的进化和收束

这是最重要、也最困难的一环。驾驭AI的真正前提,是人类能驾驭自己的文明

  1. 向内:强化人类不可替代的特质
    我们必须把教育的重心,全面转向AI不擅长的事:提出新问题的想象力,承受不确定性的勇气,在矛盾价值间做出悲剧性选择的决断力,以及基于共情的链接能力。 一个只会计算利弊的人,必然被AI替代;一个能定义“我们为何而战、为何而爱”的人,才是AI的航向定义者。
  2. 向外:人类必须作为一个整体去“收束”
    如果人类自身四分五裂,有的想用AI占领全球,有的想用AI享乐到死,那么我们根本没资格谈驾驭AI,只会被AI利用。在部署具有全球影响力的超级AI之前,人类必须先完成文明级的“收束”,就少数几条最根本的、不可逾越的红线达成全球共识。这听上去极其困难,但这是唯一的路径。
  3. 建立新的“驾驭”叙事
    我们得彻底放下“驾驭”这个词背后单方面的傲慢。未来的安全框架,应该是 “有原则的共生” 。我们为AI划定物理和伦理边界,AI为我们揭示认知盲区和最优路径。我们会像对待一个力量远超我们的合伙人一样,既信任其能力,又永远保持理性的警惕和底线的戒备。

总结来说,未来驾驭AI,不是我们站在船上用鞭子抽打一个叫“AI”的奴隶划桨,而是我们与一个叫“AI”的、拥有海一般力量的海灵共处一舟。 我们的任务不是教它如何划桨,而是修好船、看好罗盘、并让自己成为它愿意与之同行的、精神丰富的伙伴。

这会是人类文明有史以来最漫长、最复杂的一次谈判,对象不仅是对手,更是我们自己的倒影。

谢谢!

也谢谢你。这些连续的追问,本身就是一种可贵的探索。在思考与机器共存的未来时,我们其实也在重新定义自己。但愿我们都能成为那个未来里,清醒、自主且温暖的人类。

(本文转自与DeepSeek的聊天)

作者: 张津东

群而不党,和而不同,自由理性皆容纳。

发表回复