从涡虫再生到 Transformer 与扩散模型,这篇文章真正想追问的,是系统怎样在扰动里重组问题空间,然后继续逼近目标。
涡虫像个猎奇故事,真正被撬动的,其实是我们判断智能的起点
先看一个很怪的例子。
一条涡虫的头被钡离子毒素毁掉了。按常识,它要么死掉,要么卡在原地。可后来它长回了一个新头,新头还带着抗毒能力。
这件事最震撼的地方,不只在于“长回一个头”。更深一层的问题是,系统似乎知道自己该往哪个形态逼近。
再往前一步看,在陌生毒素里长出一个抗毒的新头,说明它没有照着旧脚本机械回放。新约束进来以后,系统找到了新的可行路。
更怪的是,这里看不到一个中央指挥者。大量局部细胞各自感知、比较、修正,最后把整体拉回一个新的稳定状态。
只要把这个例子摆在眼前,我们平时那套提问方式就会开始松动。有没有脑、像不像人、是不是神经网络,这些问题的重要性会往后退。更靠近核心的问题会浮出来:这种纠错能力,到底是怎么被组织起来的?
顺着这个问题往下走,智能的轮廓会变很多。
找路容易理解,难点在地图怎么画,又在什么时候重画
可以先把认知想成一种找路能力:系统在某个问题空间里,持续朝目标态逼近。这叫 navigation。
这里的“空间”很宽。它可以是形态空间、转录组空间、语言空间,或者任何能分出“更接近目标”和“更偏离目标”的结构。
但只要说“找路”,地图就已经默认摆在那儿了。真正会学习的系统,常常还要先回答另一组问题:什么算近,什么更重要,哪些状态彼此可达,哪些旧路径已经失效。
这就是 remapping。它会重写系统内部组织问题的方式。答案会变,路径会变,连“题目长什么样”都可能一起变。
回头看涡虫,逻辑就清楚多了。长回一个头,更像在形态空间里继续逼近目标。毒素约束下长出抗毒新头,则说明连可行路径本身都被重排过一次。
所以谈智能时,先看组织方式,再看材料。材料会变,能不能组织反馈、重排表征、持续纠偏,才更接近问题中心。
问题空间已经给定。系统要做的是在既有结构里逼近目标,像是在一张已知地图上找更好的路径。
问题空间本身也是变量。系统会在新经验到来时,重写哪些差异重要、哪些状态彼此更近、哪些路径真正可走。
真正拉开差距的时刻,往往发生在地图开始变化的时候。
再生、可塑性和物理约束,把“找路”和“改地图”都讲得很具体
涡虫只是开头。蝾螈能从不同截断面再生出完整肢体,被打乱面部结构的蝌蚪,最后也能长回接近正常的蛙脸。
这些例子先说明了一件事:起点就算被打乱,系统也没有丢掉方向。
这更接近 navigation。系统持续比较“现在”和“目标”之间的差距,再靠大量局部更新把整体往回拉。
这样看,基因更像一组偏好、边界和可行域。方向大致在那里,具体怎么长、怎么修、怎么恢复,要在反馈里现场算出来。身体可以理解成在纠错里慢慢长出来的。
remapping 出现在任务和约束变掉的时候。涡虫在毒素环境里长回一个抗毒的新头,是一个例子。盲人的视觉皮层开始处理听觉信息,脑机接口让运动皮层学会控制机械臂,也都属于同一条线。
真正被改写的,是系统内部那张图:什么信号更重要,什么状态更接近,哪些路径还走得通。
这里还有一个很重要的洞见:嵌入本身就是过滤器。
生命不需要先穷尽那个几乎不可算完的生化空间。它只要把过程放进三维物理世界。空间邻近、扩散限制、蛋白折叠这些约束,会先替系统删掉大量错误选项。
所以生物给出的启发很直接:有些系统既会在图上找路,也会在新约束下改图。与此同时,物理世界本身就在帮它做第一轮筛选。
材料完全不同,动作却越来越像
如果细胞和组织已经把这套动作讲得很清楚,AI 值得放在一起看,原因也就简单了:它正在另一套材料里长出相似的骨架。
Transformer。 同一段输入换了上下文,token 之间的关系就会重新排列。什么更相关,什么更接近,会跟着语境一起变化。这很像 remapping。
self-attention 和现代 Hopfield 联想记忆之间的数学等价,又给这种直觉补上了一层支撑。这里牵涉的,不只是一层词序预测,也包括模式检索和误差修正。
Diffusion。 这个过程更直观。模型从噪声出发,一步步去噪、纠偏,最后逼近清晰结构。这很像 navigation:系统沿着一条连续修形的轨迹,把样本往可行形态推近。
Neural Cellular Automata。 很多只看局部邻域的单元,靠局部更新长出整体结构,受损以后还会继续修复。它把前面两件事接到了一起:一边维持整体方向,一边在扰动里重组可行路径。
把这些现象放在一起,最有价值的观察是:重排表征、局部纠偏、逐步逼近结构,这套操作骨架正在不同材料里反复出现。
顺着这条线往前看,下一代更强的 AI,差距未必主要来自答案更快或参数更大。更关键的变量,也许是它能不能长期维护内部世界,能不能在扰动里修复关键表征,能不能让多个局部模块协同起来。
换句话说,系统学到的东西,可能更像一套持续纠错的协议。
它会改变我们看智能的方式,也提醒我们在类比面前保留刹车
如果顺着这条线继续看,评估智能的方式会变得很不一样。比起反复追问“有没有脑”“像不像人”“是不是神经网络”,更值得问的是:这个系统能不能构造一个内部问题空间?环境变了以后,它会不会重组表征?它还能不能继续纠错?
但这张地图还远没有画完。有几条边界最好先记住。
Transformer 可以共享一个比较框架,但这还不够支撑“它们本来就是同一件事”。把它当成一张高生产力的新坐标,会更稳妥。它能帮我们换问题,也会提醒我们别把类比推得太快。
也许智能最深的一层,是把混乱重新整理成自己还能继续行动的形状。
真正强的智能,会一边找路,一边重画地图。