$ Y4 F1 t5 _# Z+ q二、柏拉图表征假说的提出2 B' n6 f" [# Y/ T
就在我们为AI的局限性头疼时,这篇论文提出了一个新观点——“柏拉图表征假说”。这个假说的核心思想是:虽然现在的AI模型各不相同,训练数据、目标、模态都大相径庭,但它们学习到的表征,也就是它们对世界的理解,正在逐渐变得相似,趋向统一。这就像是不同的人,虽然看的书、经历的事不同,但最终对世界的理解却有共通之处。) L5 C5 y, a8 L) T" ^9 d" w
! P) x. \. C. |
论文里还用了一个古希腊哲学家柏拉图的洞穴之喻来解释这个假说。柏拉图说,我们看到的世界,其实只是真实世界在感知世界中的影子。AI模型也一样,它们处理的图像、文本等数据,只是真实世界的投射,而它们的任务,就是从这些数据中提炼出对真实世界的统计表征。随着模型越来越强大,这种表征就会越来越准确,最终趋近于对世界的完美刻画,这就是所谓的“柏拉图表征”。9 D. N$ `$ ~& A3 z
% _2 c; A- A! N' H. o. Z# h三、表征趋同的跨模型证据9 a/ g& \( w( {$ p8 d' ]
别以为这个假说只是空谈,论文里可是有实打实的证据支持的。在视觉领域,不同的视觉模型,比如ResNet、ViT等,在同一个任务上训练时,随着模型规模和性能的提升,它们的中间层表征变得越来越相似。这就像是不同厨师,虽然用的食材和烹饪方法不同,但做出的菜味道却越来越接近。而且,这种趋同性还体现在模型的泛化能力上,表征相似性越高的模型,在其他视觉任务上的表现也越好。 3 ~7 n8 g$ ?9 G6 v2 m, Z . e: {: R. `3 E/ K8 ?再来看看模型权重的分析。同一架构的视觉模型,尽管初始化方案和训练轨迹不同,但它们的权重分布却越来越接近。这就像是不同的人,虽然起点和经历不同,但最终却走到了同一条道路上。通过权重对齐,不同模型之间还能实现参数的高效复用,这不仅节约了计算资源,也进一步证明了表征趋同现象的普遍性和稳定性。 $ a6 Z8 T& K4 A. f* H Y! V3 k. u. K: y# }/ L3 w. g% o9 s
四、表征趋同的跨模态证据. _' k# Y# \# ] ]! X4 E w* F; k
跨模态的表征对齐更是为这个假说锦上添花。以视觉和语言为例,给定一个图文配对数据集,用视觉模型和语言模型分别对图像和文本进行编码,然后计算编码的相似性。结果发现,随着语言模型规模和性能的增长,其与视觉模型的表征对齐度也越来越高。这就像是不同语言的人,虽然说的语言不同,但通过翻译,他们对世界的理解却能达成一致。 9 {5 x, r4 T/ k/ C$ J 2 @# h& [0 a* K, h4 f这种跨模态表征对齐的趋势,不仅存在于视觉和语言之间,还出现在语音、视频等其他模态与语言模型之间。这就像是不同艺术形式,虽然表现手法不同,但它们所传达的情感和思想却能相互呼应。而且,借助于表征的跨模态对齐,不同模态的模型还能实现知识的相互促进和能力的相互赋予,这为构建更加通用和高效的AI系统提供了新的思路。; P7 M( h% Z8 w. a
- \1 l: ~( T' Z V3 a五、AI模型与认知神经科学的表征对齐 2 t/ ^0 n7 Q! Z p7 T更有趣的是,一些研究还尝试将AI模型与人脑进行比较,看看它们在表征层面的相似性。视觉DNN与视觉皮层的表征相似性分析就是一个例子。研究者利用fMRI采集人脑活动数据,然后与视觉模型的中间层激活进行对齐,发现视觉DNN的分层结构与视觉皮层的等级组织有一定的对应关系。这就像是AI模型的“大脑”与人类大脑在某种程度上“长得”有点像,它们可能都隐含了类似的视觉信息加工机制。 ' d8 l: K/ k- P4 L. w! j; A5 b& F9 Y U
语言模型与大脑语言区的fMRI信号之间的相关性分析也发现了类似的结果。随着语言模型规模的增大,其内部表征与大脑语言区的拟合度也越来越高。这就像是AI模型在学习语言时,它的“思维”与人类大脑的思维越来越接近。这些跨域的表征对齐分析,不仅有助于我们理解AI模型的认知特性,还为评估其与人类智能的差距提供了新的视角。 . N! d1 W& R! w" |) W4 m' b) W8 R9 M+ g6 P5 J
六、推动表征趋同的驱动力分析% H% b! u& N% n# K) ~' N; @
那么,到底是什么力量在推动表征趋同呢?论文里也给出了分析。6 a+ K q2 D* A( g3 u# b% f
首先,随着训练数据种类和规模的不断扩大,AI模型面临的学习任务变得越来越复杂。在多任务学习的背景下,那些更加普适、更加鲁棒的表征往往能够获得更好的泛化性能,因而在优化过程中脱颖而出。这就像是在复杂多变的世界中,那些能够适应各种环境的生物更容易生存下来。! p% {/ V7 G- L+ ?
. ?# @9 S7 y" S- U其次,预训练范式的广泛应用也促进了通用表征的形成。当模型在海量无标注数据上进行自监督预训练时,为了完成各类预测任务,它必须学习到更加高层和抽象的特征。这些特征往往与人类感知和认知更加接近,从而呈现出跨模型和跨模态的一致性。这就像是在广阔的自然界中,生物们为了生存,必须学会一些通用的生存技能,比如寻找食物、躲避天敌等。 7 O& O& f" H' M. _+ A R# C, D# R; C; H再者,不同的AI模型虽然采用不同的架构和学习算法,但它们往往服从一些共同的归纳偏置,如平滑性、稀疏性等。这些偏置限制了模型空间的大小,使得不同模型在优化过程中更容易殊途同归,收敛到相似的表征空间。这就像是在建造房子时,虽然可以用不同的材料和方法,但最终都要遵循一些基本的建筑原则,比如承重、稳固等。4 S/ m, @& N% [) Y2 z
* b6 K6 I" v( x1 t Z
从信息论的角度看,表征趋同可以理解为一种降维过程。自然环境中存在大量的统计规律和约束,使得原始感知信号中蕴含大量的冗余。为了以有限的计算资源对环境进行高效编码,AI模型必须学习剔除这些冗余,只提取最为本质和diagnostic的信息。而这些信息往往就对应着对世界的“真实结构”,因而不同模型学习到的compact表征自然趋于一致。这就像是在繁杂的信息中,我们总能提炼出一些核心要点,而这些要点往往就是问题的关键所在。; A, {; P% @) G) l