网站首页
手机版

大模型长脑子了?研究发现LLM中层会自发模拟人脑进化

更新时间:作者:小小条

编辑|Panda

大模型长脑子了?研究发现LLM中层会自发模拟人脑进化


生物智能与人工智能的演化路径截然不同,但它们是否遵循某些共同的计算原理?


最近,来自帝国理工学院、华为诺亚方舟实验室等机构的研究人员发表了一篇新论文。该研究指出,大型语言模型(LLM)在学*过程中会自发演化出一种协同核心(Synergistic Core)结构,有些类似于生物的大脑。



论文标题:A Brain-like Synergistic Core in LLMs Drives Behaviour and Learning论文地址:https://arxiv.org/abs/2601.06851



研究团队利用部分信息分解(Partial Information Decomposition, PID)框架,对 Gemma、Llama、Qwen 和 DeepSeek 等模型进行了深度剖析。


他们发现,这些模型的中层表现出极强的协同处理能力,而底层和顶层则更偏向于冗余处理。


协同与冗余:LLM 的内部架构


研究团队将大型语言模型视为分布式信息处理系统,其核心实验设计旨在量化模型内部组件之间交互的本质。为了实现这一目标,研究者选取了 Gemma 3、Llama 3、Qwen 3 8B 以及 DeepSeek V2 Lite Chat 等多种具有代表性的模型系列进行对比分析。


实验方法与量化指标


在实验过程中,研究者向模型输入了涵盖语法纠错、逻辑推理、常识问答等 6 个类别的认知任务提示词。


针对每一个提示词,模型会生成一段 100 个 Token 的回答,实验设备则同步记录下每一层中所有注意力头或专家模块的激活值。


具体而言,研究人员计算了这些输出向量的 L2 范数,以此作为该单元在特定时间步的激活强度数据。


基于这些时间序列数据,研究团队应用了整合信息分解(Integrated Information Decomposition, ID)框架。


这一框架能够将注意力头对之间的交互分解为「持续性协同」和「持续性冗余」等不同原子项。


通过对所有注意力头对的协同值和冗余值进行排名并求差,研究者得到了一个关键指标:协同-冗余秩(Synergy-Redundancy Rank)。该指标能够清晰地标示出模型组件在处理信息时,究竟是倾向于进行独立的信号聚合,还是在进行跨单元的深度集成。


跨模型的空间分布规律


实验数据揭示了一个在不同架构模型中高度一致的空间组织规律。在归一化后的模型层深图中,协同分布呈现出显著的「倒 U 型」曲线 :



冗余外周(Redundant Periphery):模型的早期层(靠近输入端)和末期层(靠近输出端)表现出极低的协同秩,信息处理以冗余模式为主。在早期层,这反映了模型在进行基本的解词元化(Detokenization)和局部特征提取;而在末期层,则对应着 Token 预测和输出格式化的过程。协同核心(Synergistic Core):模型的中层则展现出极高的协同秩,形成了核心处理区。例如,在对 Gemma 3 4B 的热图分析中,中间层的注意力头之间表现出密集且强烈的协同交互,这正是模型进行高级语义集成和抽象推理的区域。


架构差异与一致性


值得注意的是,这种「协同核心」的涌现并不依赖于特定的技术实现。


在 DeepSeek V2 Lite 模型中,研究者即使是以「专家模块」而非「注意力头」作为分析单位,依然观察到了相同的空间分布特征。


这种跨架构的收敛性表明,协同处理可能是实现高级智能的一种计算必然,而非单纯的工程巧合。


这种组织模式与人脑的生理结构形成了精确的映射:人脑的感官和运动区域同样表现出高冗余性,而负责复杂认知功能的联合皮层则处于高协同的「全局工作空间」中心。


智能的涌现:学*驱动而非架构使然


一个关键的问题在于:这种结构是 Transformer 架构自带的,还是通过学**得的?


研究人员通过分析 Pythia 1B 模型的训练过程发现,在随机初始化的网络中,这种「倒 U 型」的协同分布并不存在。随着训练步数的增加,这种组织架构才逐渐稳定形成。



这意味着,协同核心是大模型获得能力的标志性产物。


在拓扑性质上,协同核心具有极高的「全局效率」,有利于信息的快速集成;而冗余外周则表现出更强的「模块化」,适用于专门化处理。这种特征再次与人类大脑的网络架构形成了精确的平行关系。


协同核心的功能验证


为了验证协同核心是否真的驱动了模型行为,研究团队进行了两类干预实验:消融实验和微调实验。


消融实验:研究发现,消融那些高协同性的节点,会导致模型出现灾难性的性能下降和行为背离,其影响远超随机消融或消融冗余节点。这证明协同核心是模型智能的核心驱动力。



微调实验:在强化学*微调(RL FT)场景下,仅针对协同核心进行训练,获得的性能提升显著优于针对冗余核心或随机子集的训练。有趣的是,在监督微调(SFT)中这种差异并不明显。研究者认为,这反映了 RL 促进通用化而 SFT 更多倾向于记忆的特性。



结语


这项研究为大模型的可解释性开辟了新路径。它表明,我们可以从「自上而下」的信息论视角来理解模型,而不仅仅是「自下而上」地寻找特定的电路。


对于 AI 领域,识别协同核心有助于设计更高效的压缩算法,或者通过更有针对性的参数更新来加速训练。对于神经科学,这提供了一种计算上的验证,预示着协同回路在强化学*和知识迁移中可能扮演着至关重要的角色。


大模型虽然基于硅基芯片和反向传播算法,但在追求智能的过程中,它们似乎不约而同地走向了与生物大脑相似的组织模式。这种智能演化的趋同性,或许正是我们揭开通用智能奥秘的关键线索。


更多详情请参阅原论文。

版权声明:本文转载于今日头条,版权归作者所有,如果侵权,请联系本站编辑删除

为您推荐

生物世界:探索生命的奇迹与奥秘

生命,是地球上最奇妙的现象之一。从微小的单细胞生物到庞大的哺乳动物,从色彩斑斓的植物到神秘莫测的深海生物,生物世界充满了无限的奥秘和奇迹。理解生物的多样性、结构、功能

2026-01-22 13:55

大自然产生智能有规律,科学家发现大模型可以自发进化出类脑结构

生物智能和人工智能,一个诞生于亿万年的自然进化,一个源自几十年的工程设计。它们看似走在完全不同的道路上,却在追求智能的终点处意外相遇。伦敦帝国理工学院和华为诺亚方舟实

2026-01-22 13:55

科学家用弦理论意外破解生物网络构建之谜

一个世纪以来,生物学家和数学家都在为同一个问题挠头:为什么神经元、血管和树枝会长成现在这副模样?主流观点一直认为,大自然是一位精打细算的建筑师,总是试图用最少的材料构建出

2026-01-22 13:54

信息宇宙论与主动医学:从意识信息物质统一结构到干预医学

信息宇宙论与主动医学:从意识-信息-物质统一结构到干预医学的未来架构 段玉聪 1. 引论现代医学正经历从被动治疗向主动预防的范式转变。传统的被动医学模式(Passive Medicine

2026-01-22 13:54

生物混合机器人:用活细胞打造下一代“血肉之躯”

导语当全球资本和科技巨头纷纷押注“万亿级人形机器人赛道”,一个关键问题浮出水面:在感知、驱动、能源、控制等核心环节中,哪个技术路径最具颠覆性潜力?传统机电系统虽已高度

2026-01-22 13:53

上海市崇明区行政区划优化调整的战略布局与实施路径研究报告

关于上海市崇明区行政区划优化调整的战略布局与实施路径研究报告报告撰写人:湘映说明:本报告由AI人工智能生成,旨在测试其在区域发展战略、空间治理与生态敏感地区行政区划领域

2026-01-22 13:53