← pinyu.ai
Biology × AI

Redrawing the Map

从涡虫再生到 Transformer 与扩散模型,这篇文章真正想追问的,是系统怎样在扰动里重组问题空间,然后继续逼近目标。

00

一条没有大脑的虫,为什么能解一道新题?

涡虫像个猎奇故事,真正被撬动的,其实是我们判断智能的起点

先看一个很怪的例子。

一条涡虫的头被钡离子毒素毁掉了。按常识,它要么死掉,要么卡在原地。可后来它长回了一个新头,新头还带着抗毒能力。

这件事最震撼的地方,不只在于“长回一个头”。更深一层的问题是,系统似乎知道自己该往哪个形态逼近。

再往前一步看,在陌生毒素里长出一个抗毒的新头,说明它没有照着旧脚本机械回放。新约束进来以后,系统找到了新的可行路。

更怪的是,这里看不到一个中央指挥者。大量局部细胞各自感知、比较、修正,最后把整体拉回一个新的稳定状态。

只要把这个例子摆在眼前,我们平时那套提问方式就会开始松动。有没有脑、像不像人、是不是神经网络,这些问题的重要性会往后退。更靠近核心的问题会浮出来:这种纠错能力,到底是怎么被组织起来的?

顺着这个问题往下走,智能的轮廓会变很多。


01

先别急着谈智能,先看地图

找路容易理解,难点在地图怎么画,又在什么时候重画

可以先把认知想成一种找路能力:系统在某个问题空间里,持续朝目标态逼近。这叫 navigation

这里的“空间”很宽。它可以是形态空间、转录组空间、语言空间,或者任何能分出“更接近目标”和“更偏离目标”的结构。

但只要说“找路”,地图就已经默认摆在那儿了。真正会学习的系统,常常还要先回答另一组问题:什么算近,什么更重要,哪些状态彼此可达,哪些旧路径已经失效。

这就是 remapping。它会重写系统内部组织问题的方式。答案会变,路径会变,连“题目长什么样”都可能一起变。

回头看涡虫,逻辑就清楚多了。长回一个头,更像在形态空间里继续逼近目标。毒素约束下长出抗毒新头,则说明连可行路径本身都被重排过一次。

所以谈智能时,先看组织方式,再看材料。材料会变,能不能组织反馈、重排表征、持续纠偏,才更接近问题中心。

Navigation

问题空间已经给定。系统要做的是在既有结构里逼近目标,像是在一张已知地图上找更好的路径。

vs
Remapping

问题空间本身也是变量。系统会在新经验到来时,重写哪些差异重要、哪些状态彼此更近、哪些路径真正可走。

Navigation Remapping 地图已知,重点是找路径 地图本身在更新,重点是改结构 起点 目标 what matters? what is close? what is reachable?

真正拉开差距的时刻,往往发生在地图开始变化的时候。


02

为什么生物证据这么硬

再生、可塑性和物理约束,把“找路”和“改地图”都讲得很具体

涡虫只是开头。蝾螈能从不同截断面再生出完整肢体,被打乱面部结构的蝌蚪,最后也能长回接近正常的蛙脸。

这些例子先说明了一件事:起点就算被打乱,系统也没有丢掉方向。

这更接近 navigation。系统持续比较“现在”和“目标”之间的差距,再靠大量局部更新把整体往回拉。

这样看,基因更像一组偏好、边界和可行域。方向大致在那里,具体怎么长、怎么修、怎么恢复,要在反馈里现场算出来。身体可以理解成在纠错里慢慢长出来的。

remapping 出现在任务和约束变掉的时候。涡虫在毒素环境里长回一个抗毒的新头,是一个例子。盲人的视觉皮层开始处理听觉信息,脑机接口让运动皮层学会控制机械臂,也都属于同一条线。

真正被改写的,是系统内部那张图:什么信号更重要,什么状态更接近,哪些路径还走得通。

这里还有一个很重要的洞见:嵌入本身就是过滤器。

生命不需要先穷尽那个几乎不可算完的生化空间。它只要把过程放进三维物理世界。空间邻近、扩散限制、蛋白折叠这些约束,会先替系统删掉大量错误选项。

所以生物给出的启发很直接:有些系统既会在图上找路,也会在新约束下改图。与此同时,物理世界本身就在帮它做第一轮筛选。


03

AI 也开始显出同样的骨架

材料完全不同,动作却越来越像

如果细胞和组织已经把这套动作讲得很清楚,AI 值得放在一起看,原因也就简单了:它正在另一套材料里长出相似的骨架。

Transformer。 同一段输入换了上下文,token 之间的关系就会重新排列。什么更相关,什么更接近,会跟着语境一起变化。这很像 remapping

self-attention 和现代 Hopfield 联想记忆之间的数学等价,又给这种直觉补上了一层支撑。这里牵涉的,不只是一层词序预测,也包括模式检索和误差修正。

Diffusion。 这个过程更直观。模型从噪声出发,一步步去噪、纠偏,最后逼近清晰结构。这很像 navigation:系统沿着一条连续修形的轨迹,把样本往可行形态推近。

Neural Cellular Automata。 很多只看局部邻域的单元,靠局部更新长出整体结构,受损以后还会继续修复。它把前面两件事接到了一起:一边维持整体方向,一边在扰动里重组可行路径。

把这些现象放在一起,最有价值的观察是:重排表征、局部纠偏、逐步逼近结构,这套操作骨架正在不同材料里反复出现。

顺着这条线往前看,下一代更强的 AI,差距未必主要来自答案更快或参数更大。更关键的变量,也许是它能不能长期维护内部世界,能不能在扰动里修复关键表征,能不能让多个局部模块协同起来。

换句话说,系统学到的东西,可能更像一套持续纠错的协议。


04

这张地图能带我们走多远

它会改变我们看智能的方式,也提醒我们在类比面前保留刹车

如果顺着这条线继续看,评估智能的方式会变得很不一样。比起反复追问“有没有脑”“像不像人”“是不是神经网络”,更值得问的是:这个系统能不能构造一个内部问题空间?环境变了以后,它会不会重组表征?它还能不能继续纠错?

但这张地图还远没有画完。有几条边界最好先记住。

  1. 目标从哪里来? 误差最小化总要相对于某个目标态。可什么才算“正确形态”,什么才算“值得修正的偏差”,仍然需要额外解释。
  2. 框架会不会过宽? 如果任何复杂反馈系统都能被装进“导航 + 重映射 + 纠错”,那“认知”这个词最后很可能失去区分力。
  3. 相似还不能直接等于同一种机制。 涡虫再生、扩散模型、Transformer 可以共享一个比较框架,但这还不够支撑“它们本来就是同一件事”。

把它当成一张高生产力的新坐标,会更稳妥。它能帮我们换问题,也会提醒我们别把类比推得太快。

一句话

也许智能最深的一层,是把混乱重新整理成自己还能继续行动的形状。

真正强的智能,会一边找路,一边重画地图。