哪怕只有几十个神经元,AI也能出现泛化能力!
这是几个谷歌科学家在搞正经研究时,“不经意间”发现的新成果。
他们给一些很简单的AI模型“照了个X光”——将它们的训练过程可视化后,发现了有意思的现象:
随着训练时间增加,一些AI会从“死记硬背”的状态中脱离出来,进化出“领悟力”(grokking),对没见过的数据表现出概括能力。
这正是AI掌握泛化能力的关键。
基于此,几位科学家专门写了个博客,探讨了其中的原理,并表示他们会继续研究,试图弄清楚大模型突然出现强理解力的真正原因。
一起来看看。
并非所有AI都能学会“领悟”
科学家们先探讨了AI出现“领悟力”(grokking)的过程和契机,发现了两个现象: