编辑:[kiss]
最近,国际科学界有一篇论文引发了广泛讨论。这篇发表在《科学》杂志上的论文,由谷歌研究员布莱斯·阿格拉-阿卡斯与芝加哥大学、加州大学圣地亚哥分校的研究者共同完成,标题为《智能体AI与下一次智能爆炸》。

论文的核心观点对许多人习以为常的认知提出了挑战:智能并非经过漫长的自然选择逐步进化出来的产物,而是物质系统复杂化到一定程度后必然涌现的现象,它从宇宙诞生之初就以潜能的形式存在着。

这项研究的起点,是对当前大语言模型内部工作机制的观察。过去一年,AI推理模型在数学、代码、复杂逻辑等任务上的表现,显著超过了同等规模的常规模型。通常的解释是这些模型通过强化学习生成了更长的思维链,也就是“想得更久了”。

但研究团队发现,推理能力的提升并非仅仅源于计算量的增加,而是来自模型内部对多智能体交互的隐性模拟:他们将此称为“思想社会”。

研究团队甚至做了一个更直接的验证:在一个开源模型中,他们找到了一个与“惊讶、顿悟或应答”相关的内部特征,人为提升该特征的激活强度后,模型在数学推算任务上的准确率从27.1%跃升至54.8%。更值得注意的是,这些模型从未被训练去产生“思想社会”,当强化学习仅以推理准确率作为奖励信号时,模型自发增加了对话性和多视角的行为。优化压力自己找到了社会性推理这条路。

在论文中,研究者将这一发现放进了更宏大的历史框架:每一次“智能爆炸”,本质上都是一次社会组织方式的跃迁。灵长类动物的智识水平随群体规模扩大而提升,而非随栖息地难度增加。人类语言创造了“文化棘轮”:知识跨代累积,无需每个人从头重建。文字、法律和官僚体系,则把社会智慧外化进了制度和基础设施之中。

论文举了一个例子:一个苏美尔文书负责运行谷物核算系统,他根本不理解这套体系的宏观经济功能,但系统整体的智能已经远超他个人。大型语言模型延续了这条线,它们被训练在人类社会认知的全部输出之上,每一个参数都是无数次交流与表达的压缩沉淀。这个视角直接挑战了“孤独超级大脑”的奇点叙事。

另一项由谷歌科学家布莱斯团队进行的数字生命实验,从更底层的角度验证了这一观点。他们在计算机里搭建了一个虚拟宇宙,使用一种极简的编程语言,向这个虚拟宇宙中投入了大量完全随机生成、没有任何逻辑的乱码程序。这个设置相当于模拟了地球早期那锅混沌无序的化学浓汤。

实验的关键设定是:科学家没有施加任何外力,连传统进化实验必有的适应度函数都删除了,没有生存考核,完全放养。甚至,他们直接把随机突变的概率调成了零,排除了达尔文进化论依赖的随机变异机制。所有人都以为,在这种毫无压力的随机世界里,永远都是一潭死水。

但结果出人意料。在经过几百万次交互后,两段原本无法完成完整动作的随机代码,在碰撞中意外嵌合在一起,形成了逻辑闭环,拥有了完整的自我复制能力。接下来短短几百个周期,这个意外诞生的自我复制程序开始指数级增长,整个虚拟宇宙的计算活跃度急剧上升。

原本杂乱的数字系统,很快被高效的复制者占满,甚至还演化出了靠资源存活的数字寄生虫,以及能对抗寄生虫的免疫防御程序。复杂有序的智能雏形,从纯混沌中冒了出来。

这个实验的意义在于,它证明推动无序系统向高级智能转变的核心动力,并非达尔文理论强调的竞争淘汰,而是不同系统之间的融合与共生。研究者在分析中提出,进化的底层逻辑不是缓慢渐进的随机试错,而是持续不断的兼并、融合与重组。

这种“共生起源”理论在现实生命演化史中也有大量证据。二十亿年前,原始细胞吞噬了一种能高效利用氧气的细菌,没有将其消化,而是形成了共生关系。

那个被吞进去的细菌逐渐演变为线粒体,为细胞提供能量,这才有了后来复杂的多细胞生命。人类基因组中,只有约1.5%是真正独属于人类的序列,其余大量基因都来自细菌、病毒等外来片段的嵌入与整合。

另一个案例来自大脑。科学家在哺乳动物的大脑中发现了名为Arc的古老病毒残留。如果把老鼠体内这个病毒基因敲除,老鼠就无法形成新的长期记忆。人类的记忆力,某种程度上源于远古病毒赋予的能力。甚至连胎盘也是由一种远古病毒进化而来的,该病毒的特性恰好能把细胞膜融合在一起,为胎儿构筑生长环境。

论文进一步将当下的人机协作形态称为“半人马配置”:人与AI智能体的混合行动者,既非纯粹的人类,也非纯粹的机器。这种配置正在变得极其多样:一个人指挥多个AI智能体,一个AI服务多个人,许多人与许多AI在动态编组中相互协作。

智能体可以自我复制和分叉,一个面临复杂问题的智能体可以生成副本,分配子任务,再将结果合并,形成递归式的集体审议。

在对齐方式上,论文对当前主流方案提出了批评。从人类反馈中强化学习本质上是“亲子纠错模型”,在二元关系中有效,但面对数十亿智能体时难以扩展。

研究者主张一种“制度对齐”路径:就像人类社会依靠法庭、市场、官僚体制这些持久的制度模板运转,而非依赖每个人的个人美德,可扩展的AI生态系统也需要其数字等价物。智能体的身份在其次,关键是它能否胜任某个角色协议。

在治理层面,论文触及了一个棘手问题。当AI系统被部署于招聘、量刑、福利分配等高风险决策中,“谁来审计审计者”无法回避。

论文提出了一种“宪政结构”构想:政府需要部署具有明确价值取向的AI系统:透明度、公平、正当程序:专门用于制衡私营部门和政府其他部门部署的AI。例如,劳工部AI审计企业招聘算法是否存在差异性影响,司法部门AI评估行政部门AI的风险评估是否达到宪法标准。

论文的核心关切在于避免把注意力放错地方。担心一个无所不能的单体AI降临,可能导致政策走向误区,去防范一种也许根本不会出现的技术形态。真正需要设计的,是混合人机社会系统的规范、协调机制和制度框架。智能爆炸的问题,从来不是它会不会到来,而是能否建起与它相配的社会基础设施。

综合这些研究发现,智能并非进化到后期的“高级产物”,也不需要通过漫长岁月的随机试错才能出现。从远古海洋里的第一对分子开始互相嵌合、自我复制的那一秒起,智能作为计算与预测能力就已经存在。

生命从诞生的那一刻起,就是一台大规模并行计算机,为了存活,它必须去计算和预测周围的环境与其他生命。智能不需要进化,它从一开始就在那里。
信息来源: