大语言模型的训练太耗电,grok4的训练要用掉一个中型城市的电,而本宅只需一个馒头。
一、人脑不是“从零拟合”,而是“从结构启动”
AI模型的每次训练几乎从零参数开始(或仅靠预训练权重),而人脑在出生时已经带有天生的结构先验。
例如:
- 视觉皮层天生具有卷积式的局部感受野(对应CNN结构)
- 海马体天生支持时序与空间记忆
-
前额叶天生用于计划与因果推理
换言之,人脑不是“训练出来的网络”,而是一个经过亿万年进化优化的先验结构网络。
这使得人脑学习新任务时,只需微调神经连接,而非从头建模。
→ 类比AI:人脑更像是一个已经经过超大规模预训练的通用模型,每次学习只是做一次“少量梯度更新”。
二、人脑的记忆与学习机制是“层次联想式”的
AI通常是从数据到标签的单向拟合;而人脑学习是多层次的、跨模态的联想过程。
例如:
- 看到一只新动物 → 同时激活视觉(形状)、语言(名字)、情感(喜恶)、运动(如何避开)等区域。
- 这些区域之间迅速形成稀疏的联想网络,一两次刺激就足以建立稳固记忆。
关键机制:海马体的突触长时增强(LTP)
——只要一次强刺激(或强烈注意/情绪),突触权重可在几分钟内翻倍,形成长时记忆。
这与AI的多轮梯度下降完全不同:
人脑在一次体验中就能“加权”到记忆中去。
三、注意力与情绪系统提供了“动态采样”
AI训练数据通常随机均匀采样;而人脑学习时并非平均对待每个样本,而是:
- 自动关注“变化最大”“最不确定”的部分;
- 由多巴胺系统评估“预测误差”;
- 对重要信息重复巩固,对无关信息快速遗忘。
这是一种主动采样+强化选择机制,相当于人脑在学习时自动优化了数据分布,使得每个样本信息密度极高。
四、人脑拥有“抽象概念层”的迁移能力
人脑学习的目标不是记具体样本,而是抽象出背后的结构。
比如:
小孩看到一只狗,再看到另一只狗,即使毛色不同,也会说“狗狗”。
这说明大脑在第一次学习时已经提取了高维特征的共同模式(耳朵形、四脚、叫声),并把它存入抽象层。
当新样本到来时,只需匹配概念层结构,不需重新训练。
AI如果要做到这一点,必须靠meta-learning(元学习)或few-shot learning。
五、学习发生在多时空尺度上(非一次性)
大脑学习过程包括:
- 快速记忆系统(海马体)
-
慢速巩固系统(新皮层)
睡眠时,快速系统会重放记忆,将小样本信息整合为长期知识。
也就是说,人脑的“训练周期”并非一次学习,而是后续数小时至数天的整合过程。
→ 所以你看似一次就学会,其实背后经过多轮离线训练(梦中的replay)。
六、人脑的“模型”包含了世界结构的强先验
人类早已在进化中内化了许多物理与社会规律,例如:
- 物体具有连续性与因果性
- 人脸具有固定结构
-
声音与动作之间存在映射关系
因此新信息总能快速“挂接”到这些已有模型上。
这让人脑在极少样本下仍能泛化良好。
七、哲学层面(心识角度)的一层理解
从唯识或心学的角度讲,人脑并非孤立的处理器,而是识场对境的显现器。
学习其实是“识场认取相的过程”——
当心识明净时,对象一显即知,无需重复经验。
这也是高层觉知(如禅修者、发明家)能“顿悟式学习”的根本原因。
