High-capacity flexible hippocampal associative and episodic memory enabled by prestructured''spatial''representations
摘要
大脑中的海马电路使得两种不同的认知功能成为可能:构建用于导航的空间地图和存储顺序性的情节记忆。这种海马体的双重角色仍然是一个持久的谜团。尽管在建模海马体的空间表征特性方面已有进展,但我们缺乏对其在情节记忆中作用的良好模型。在这里,我们提出了一个新皮层-内嗅皮层-海马体网络模型,该模型展示了高容量的通用联想记忆、空间记忆和情节记忆,并且没有现有神经记忆模型的记忆悬崖。相反,这个电路(我们称之为Vector-HaSH,即向量海马体支撑异构联想记忆)展示了存储项目数量与细节之间的平衡,这是通过将内容存储从生成错误纠正稳定状态的动态中分离出来实现的。这样的大空间避免了灾难性遗忘。接下来,我们展示了预先结构化的表征对于构建情节记忆是一个关键特征:与现有的情节记忆模型不同,它们通过将链式问题抽象为在一个刚性低维网格细胞支撑中的过渡学习,从而实现了高容量的序列记忆。最后,我们展示了以前学到的空间序列(如位置-地标关联)本身可以作为可靠的支撑被重新利用,并与新皮层输入关联,从而提供高保真度的一次性记忆模型,首次实现了记忆运动员所使用的“记忆宫殿”电路模型。
引言
当我们在生活中导航时,海马体将经历的线索编织成情节记忆的织物。这种由各种背景交织的织物使我们能够仅凭几个线索重新回忆场景和事件,就像普鲁斯特的著名玛德琳蛋糕一样。这种线索驱动的回忆使记忆以相关的方式可用,以便在当前做出推断并为未来做规划。海马复合体负责这一功能,但尚不清楚海马体及其相邻的内嗅皮层和其他皮层区域的建筑和表征如何实现这一点。
海马复合体的亚结构中的表征和动态已被广泛研究,实验发现与模型和模型测试相结合,显著推进了我们对局部电路机制的理解。这些工作使我们能够建立对整体系统的理解,了解这些亚结构如何协同工作以支持稳健、高效和高容量的联想记忆存储和回忆。一个特别有趣的问题集中在这一结构的双重角色上:海马体既支持一般的情节记忆,也支持空间记忆。为什么这两种记忆形式会共存于同一个区域?新自传经历的存储,即情节记忆,著名地在海马复合体受损时会受到损害。空间记忆指的是我们导航和记住物理环境布局的能力。海马体内充满了在特定环境和背景下在特定位置发射的地方细胞。在内嗅皮层中,网格细胞发挥了互补的作用:它们在不同环境中生成不变的空间表征,形式为三角形网格状的发射模式。因此,内嗅皮层网格细胞被假设为生成一个空间坐标系统,而海马体细胞则编码特定的位置。这两种记忆(情节和空间)可以在一生中积累和访问,而不会受到太大的干扰,尽管海马体相对于皮层的体积很小。
海马体的空间记忆和情节记忆的双重功能可能通过三种不同(但非排他性)的假设来理解。第一种假设是,空间信息内容是生存中最关键的记忆类型——记住关于我们找到食物或危险的位置的细节。在这种观点下,电路被优化为空间记忆,而情节记忆只是该系统的小幅增强。
第二种假设认为,电路专注并优化于情节记忆,但空间坐标(不一定是详细的空间信息内容)仅仅是最稳定和有用的索引之一。
第三种假设是,高度结构化的记忆架构的动态对于包含或不包含空间信息的情节记忆以及空间记忆同样优化。实质上,第三种假设认为,可能被解释为空间的抽象低维表征架构同样是连接(可能完全非空间的)情节记忆元素的重要支撑。
在这项工作中,我们构建了一个新的新皮层-内嗅皮层-海马体电路模型,用于内容可寻址的联想记忆,并在数值和理论上广泛表征其属性。该模型的两个关键特性是:
1) 将记忆分解为一个由完全不变的网格细胞电路(与我们对该电路的了解相符)提供的固定点动态的结构支撑,并与海马体以固定和随机的方式交互,以及一个用于(异质)关联输入数据的独立阶段;
2) 强制情节记忆中的过渡动态通过作用于低维潜在网格状态的移位算子来介导。
我们发现,该电路在三种记忆方面表现优异:对单个输入的记忆(项目记忆)、空间映射(空间记忆)和序列记忆(情节记忆)。模型的一个最有趣的属性是,网格细胞电路看似空间的表征,特别是代码的低维和向量性质,即使对于完全非空间的情节记忆,也发挥了关键而独特的作用。换句话说,我们的模型支持关于空间记忆和情节记忆共存的第三种假设。
在计算上,对于每个输入,模型生成一个由支撑状态给出的哈希码,利用支撑中的预结构化递归连通性将这些哈希状态转换为用于错误纠正的固定点,然后利用支撑的“强满秩”特性实现(部分)解压或重构输入模式。模型还利用了网格编码状态的有序性以及它们位于低维空间的事实,通过向量过渡实现高效的序列记忆。因此,我们将我们的模型称为Vector-HaSH:向量海马体支撑异构联想记忆。正如我们将看到的,Vector-HaSH在其巨大的容量、内容丰富性与记忆数量之间的优雅折衷、记忆之间的不干扰、避免灾难性遗忘以及对生物记忆的相似性方面的成功,关键在于将创建动态固定点(用于模式完成和稳定性)与内容存储问题的分解。其在顺序情节记忆中的成功关键在于网格细胞电路的抽象低维向量更新属性,这在空间上下文中称为速度积分。
我们将看到,Vector-HaSH的高度约束的架构、神经激活(网格细胞中的不变低维表征)、突触权重以及生物学上可行的学习规则使得记忆在添加超过固定低容量的输入时不会出现完全擦除(记忆悬崖)现象。所有用于运行该模型的代码将在发表时免费提供,以便他人进行未来实验的预测和测试。
结果(GPT翻译参考)
HaSH架构用于海马体联想记忆:动态和内容的因子分解
HaSH architecture for hippocampal associative memory: Factorization of dynamics and content72
我们的模型基于已知和推断的内嗅皮层与海马体之间的递归连接77–80,以及内嗅皮层中的网格细胞之间的连接33。处理过的海马外输入通过直接和非网格的内嗅皮层输入进入海马体(图1b,紫色);这些输入不仅携带来自外界的感官信息,还包括来自其他脑区的内部生成的认知输入66。海马体还接收来自内嗅皮层网格细胞的输入(图1b,橙色),并向网格细胞和非网格细胞输出连接。
网格细胞电路由多个网格模块组成,每个网格模块都包含不相交的细胞组。每个网格模块在任务无关的情况下表达一组不变的低维状态。这种不变性在一系列关于共同模块网格细胞的群体状态和细胞间关系的研究中得到了确立,这些研究涵盖了在熟悉和新环境中的导航、不同空间维度、以及睡眠和觉醒状态。在空间背景下,我们可以描述网格细胞模块为以其空间周期性响应为模的相位来编码位置。在非空间背景下,网格细胞模块的状态保持不变,但可以被概念化为约束在二维环面上的抽象表示。
从网格细胞到海马体的连接被设置为随机和固定的。从海马体到网格细胞的连接在发展过程中一次性设置(例如,通过联想学习),然后保持固定。正如我们将看到的,固定的内部网格连通性和从网格到海马细胞的随机固定投影对电路的许多重要属性至关重要。海马体与非网格输入之间的连接仍保持双向可塑性,并由联想学习来设置。
由于网格细胞状态是固定的,而网格-海马体的权重是双向固定的,我们将网格-海马体电路称为记忆网络的支架。这个架构涉及一组固定的低维状态(网格细胞电路),这些状态通过固定的高秩投影与海马体递归耦合,从而创建一个大量表现良好的固定点库。另一方面,我们将海马体-非网格皮层反馈回路称为电路的异质联想部分。在这个电路中,与生成固定点的连接不同,异质联想地将感官数据附加到支架上。与标准的联想记忆模型(如Hopfield网络)不同,其中递归权重稳定并直接联想内容,在这里,二者被分开:Vector-HaSH将递归动态与内容分解开来。
接下来,我们将探索该电路架构及其在不同设置下的扩展,包括从空间记忆到非空间记忆,再到顺序情节记忆的内容可寻址记忆的理论和实证属性,详见图1c-f。
生成大量稳健的固定点库在不变的支架中
Generation of vast library of robust fixed points in an invariant scaffold101
网格细胞电路由若干个(M)假设上互相独立的网格细胞模块组成:每个模块中的神经元的群体状态被约束在一个二维环面上。每个网格模块每次只能表达环面上的一个状态,与其他模块独立。第 i 个模块可以取 Ki 个状态,因此它们共同表达了个不同的状态(假设 Ki 是互质的)。通过学习的双向连接将所有模块中共同活动的网格细胞耦合到海马体细胞,可以将这种网格-海马体状态转化为一个固定点,并实现错误修正83, 85。然而,海马体的细胞数量不足以将每个网格状态转换为一个吸引子。
在支架假设中,网格细胞通过固定随机权重——高秩随机投影——投射到海马体细胞,海马体细胞对其输入进行阈值处理和整流。返回投影通过简单的类似Hebbian学习进行一次性学习,以加强输入网格细胞状态,然后保持固定(方法部分)。
随机固定支架将指数多的网格状态转换为指数多的稳定固定点
Random fixed scaffold converts exponentially many grid states into exponentially many stable fixed points112
值得注意的是,随机网格到海马体的投影与关联学习的返回投影结合在支架中,将所有指数多的网格状态(作为网格模块数量的函数)转换为稳定的固定点或内嗅-海马体电路的吸引子(图2b),对于足够(但不是非常)大的海马体网络(图2c)。向从任何网格状态派生的海马体状态添加噪声,然后运行电路的动态,准确地恢复原始网格状态的正确(去噪)海马体状态。
所需的海马体细胞数量远小于网格状态的指数集(图2d,左;SI图S1):它仅与模块数量线性相关,因此与网格状态的数量对数相关。对于给定数量的模块,它几乎不依赖于网格细胞的规模(周期性)(图2d,右,SI图S2;分析证明见SI节C.1)。总之,支架生成的稳定状态数量是支架神经元(网格和海马体细胞)总数的指数级。
我们理论上发现没有虚假的稳定状态,因此整个海马体状态空间都用于形成网格细胞状态的大基底。我们还理论上发现,这些基底都是凸的,并且在固定点之间的大小基本相同(见SI节C.2, C.3)。因此,每个稳定状态的基底应该是均匀且最大化的,我们在图2e中进行了数值验证。
尽管这一结果很惊人,但它并不违反Hopfield类递归网络的基本容量界限。根据这一界限,O(M)个神经元和O(M²)个突触的网络最多只能支持O(M)个用户定义的动态稳定状态,或O(M²)比特的信息74, 75,因为固定点是预先确定的无内容状态,而非用户定义的。预先确定的网格状态的具体结构,通过随机投影到海马体,创建了间隔良好的稳健的网格-海马体吸引子,并具有大的、均匀大小的基底。
支架的固定权重和激活的具体结构对其功能至关重要:如果海马体状态不是通过随机网格投影来确定的,而是设置为这些状态的随机打乱版本,保持其统计特性,并且网格到海马体的投影和返回权重是双向学习的,使网格-海马体模式对是自洽的,那么支架的容量将崩溃(见图2d;理论见SI节C.1)。
Strong generalization property of scaffold
支架的强泛化特性
支架网络具有另一个显著的属性,称为强泛化,这依赖于网格编码。海马体到网格的权重通过访问网格状态来设置,确定海马体状态,然后应用Hebbian类似的关联学习。我们发现所有 O(K^M) 网格状态在只学习了 O(MKmax) 个状态的权重后,都成为了迭代动态的稳定固定点,其中 Kmax 是最大模块中的状态数量。当 M 和 K 较大时,这只是所有状态的一小部分,成为自动稳定的,这是一种非常强的泛化(见图2f)。我们在SI节C.4中对这种强泛化特性进行了理论证明。对于强泛化,学习过程中访问的网格状态可以通过遍历一个小的连续位置集合来生成(见SI图S5,比较了学习所需的最小空间区域与网格编码空间的全部范围)。从网格状态的随机子集进行学习需要看到更多的模式,才能使所有网格状态成为稳定的固定点——这有一定的泛化,但相对较弱(见图2f)。当网格状态被固定模式(例如,通过打乱每个网格编码状态获得的)替代时,如MESH87,几乎没有泛化:稳定指数多的状态需要学习指数多的模式,接近于一的分数。理论上,网格相位编码的度量或有序(间接地,即空间)结构,通过在度量顺序中访问状态时学习海马体到网格的投影,可以导致强泛化(证明见SI节C.4)。
强泛化的特性在计算上非常有用,在生物学上也至关重要:这意味着支架的权重可以一次性学习,例如在小环境中的早期空间探索中,然后在动物的余生中保持固定。这种早期和空间限制的学习足以提供一个巨大的稳定固定点库,用于未来的空间和非空间记忆功能,正如我们下面所看到的。
Content-addressable item memory through heteroassociation of inputs onto scaffold160
内容可寻址的项目记忆通过输入到支架上的异联接
内容可寻址的记忆必须能够基于部分或损坏的模式存储和回忆任意的(用户定义的)输入模式。支架状态本身不是记忆状态,因为它们不是用户定义的。考虑到到达海马体的外部输入,这些输入直接来自新皮层88–90 或通过非网格的内嗅皮层细胞(图3a,绿色)。我们将这些输入称为感官输入。一个传入的感官输入通过海马体状态与输入之间的Hebb-like一次性学习来“分配”到一个随机选择的支架固定点,采用生物学上可行的在线Hebb-like伪逆规则实现91, 92。这些权重更新的目标是自一致性:海马体驱动回感官状态的驱动应尝试生成激活海马体状态的相同感官模式。随着额外的感官输入的接收,它们被分配到其他支架状态,感官输入和海马体之间的权重也相应地更新。项目记忆的输入可以与任何支架状态关联,以任何顺序(支架状态不需要按度量序列选择,例如项目记忆)。
记忆从部分感官线索中重建的过程如下:这些输入驱动海马体活动,进而推动支架向有效的固定点移动;感官信息随后通过异联接学习的海马体到感官的权重进行重建。Vector-HaSH 因此表现为内容可寻址记忆(CAM)网络(图3b)。重建可以双向进行:如果网络仅通过感官输入(初始网格状态未知)进行提示,网络会重建网格状态。反之,仅给定网格状态(没有感官线索),网络则重建感官数据。
回忆的完美性及与现有记忆模型的比较
Continued high-information associative memory via graceful item number-information tradeoff
回忆在存储了 Nh 个模式之前是完美的(每个模式每位输入的恢复信息量为 Ns,互信息量为1,其中 Ns 是感官输入的大小)。在超过 Nh 存储的输入模式之后,每个模式的恢复信息量随着模式数量的增加而减少:存储的模式数量与回忆的丰富度之间存在优雅的权衡。回忆模式与记忆模式之间的互信息(MI)饱和或接近理论上限(由突触数量的平方除以两倍模式数量给出),在存储模式的数量上达到由指数级大规模支架固定点给出的上限(图3c)。它渐近地以相同的方式缩放,与 MI 上限一致(图3c,黑色虚线)。模式的记忆可以在线(模式一次呈现,按顺序)或离线进行,回忆性能没有差异。
与现有记忆模型的比较
Comparison with existing memory models
我们可以将 Vector-HaSH 的性能与各种类型的 Hopfield 网络模型进行比较:经典的 Hopfield 网络、具有稀疏权重的网络以及具有稀疏模式的网络。在所有这些网络中,当记忆的模式数量低于一个阈值(与网络大小线性相关)时,它们可以被完美地恢复。记忆模式的数量超过这个临界值会导致所有模式的丢失,包括之前记忆的模式:回忆与记忆模式之间的互信息量降为零,出现了记忆“悬崖”(图3d)。其他记忆模型也表现出类似的悬崖现象86, 93–98。一些模型只能为固定的网络架构存储特定数量的模式76。
在 Vector-HaSH 中,网络继续存储每位输入的有限信息,直到存储的模式数量达到指数级大的支架容量。恢复的信息量每突触趋近于一个常数值,无论存储的模式数量如何,直到达到支架容量(图3d),没有记忆悬崖。网络中的总信息量按最优的 N^2 值扩展,而不受模式数量的影响(图3c,虚线)。每个网络突触的可恢复信息量趋向于常数值而非零(图3d,虚线)。我们将 Vector-HaSH 中可检索的常数信息量以及信息量与模式数量之间的平滑权衡称为记忆“连续体”,以区别于其他 CAM 模型的记忆悬崖。
与端到端训练的深度网络的比较
Comparison with end-to-end trained deep networks
Vector-HaSH 可以展开为一个自编码器86,但它是一个高度受限的自编码器:瓶颈层中的编码是固定的,层内的递归动态也是固定的。瓶颈层到解码层的权重是固定的,所有权重都是通过生物学上合理的联想规则学习的(图3e(左))。为了比较,我们训练了一个具有相同维度的无约束自编码器,该自编码器具有尾部连接(从自编码器输出到其输入的恒等权重),以实现迭代重建86(图3e(左)),通过监督学习(反向传播)进行训练。显著的是,尽管后者具有更大的潜在灵活性,但 Vector-HaSH 的表现明显优于这个自编码器(图3e(右)),这反映了 MESH 相对于相同自编码器的显著优势87。SI 图 S9 显示,Vector-HaSH 在被噪声感官线索提示时,也优于尾部连接自编码器和非迭代自编码器。
总之,支架中的固定吸引子状态(在 Vector-HaSH 中是网格细胞)似乎提供了一个关键的归纳偏差,使得高容量的鲁棒记忆成为可能,这是在无约束架构上通过反向传播学习无法发现或实现的。
持续高信息量联想记忆的机制
Mechanisms of continued high-information associative memory
当部分或损坏的感官状态被呈现给 Vector-HaSH 时,它会从记忆中检索一个项目。在网络的不同部分,检索的精确度不同(图3f,左):网格和海马状态几乎总是能够被准确地召回(只需一定数量的海马细胞)。感官状态的召回则是近似的,具体取决于存储模式的数量相对于海马区域的大小(记忆连续体;图3f,左,绿色)。尽管感官重建是近似的,但检索到的状态与记忆中的感官模式位于相同的 Voronoi 区域(图3f,左,黑色)。即使在提示中的错误比率很高时,这也是真实的(图3f,右)。
揭示这些结果背后的动态:噪声输入通过感官到海马的权重投影到支架上时,已经减少了一些错误(图3b,g:输入状态在从绿色到粉色盆地的过渡中朝着学习的状态移动)。接着,网格递归动态找到一个最接近海马输入的精确网格编码状态(图3g,从粉色到橙色盆地的过渡)。此外,即使在记忆连续体的深处,这一映射也是到正确盆地中的网格状态(参见图3f),这一点我们在 SI Sec. D.1 中做了分析。接下来,这个网格状态重建一个精确的以前记住的海马状态(图3g,从橙色到粉色盆地的过渡)。最后,海马到感官状态重建一个近似的感官模式,对应于海马状态。由于模式间重建权重的干扰,这种重建的精确度系统性地随着存储模式的数量而降低——这解释了记忆连续体——但重建是可靠的:无论提示是什么(可能是无噪声的或损坏的),重建的模式都是相同的(图3g,从粉色到绿色盆地的过渡)。
我们证明,当网格驱动的海马状态集是强满秩的时,高信息量联想记忆是可能的(SI Sec. D.2)。如果海马支架状态:1)由网格细胞的随机投影决定,并且 2)涉及网格输入的某种非线性变换(几乎所有函数空间中的非线性变换都是足够的,无需调整功能形式),那么这一属性就会得到满足。例如,简单的阈值整流对于广泛的激活阈值范围来说是足够的(SI 图 S10,S11;相比之下,线性海马层不会导致强满秩的海马状态,SI 图 S12)。支架的强满秩属性允许感官输入通过与支架固定点的联想以任何顺序和任何位置存储。我们在 SI Sec. D.2 中证明,它保证了对前 Nh 个存储状态的完美召回(图3f)以及之后的持续高信息量联想记忆。
高容量识别记忆
High-capacity recognition memory
观察到电路能够回忆起以前见过的输入的正确盆地,即使回忆的细节有所下降,这表明电路可能也可以被用作一个庞大的识别记忆系统。我们探索了海马体活动的简单统计量是否能够区分对熟悉输入和新颖输入的响应。我们发现,海马体中的活动分布对于熟悉的感官输入和新颖的感官输入是不同的。
当大量(少量)模式被存储在感官到海马的层权重中时,新颖感官模式的海马体平均活动高于(低于)熟悉感官模式的平均活动(图 S13)。因此,我们将一个模式分类为熟悉的,如果海马体中引发的活动位于围绕熟悉模式典型平均激活的狭窄带内。超出这个带,则将其分类为新颖的。我们发现,这种简单的双阈值分类器在海马体活动上成功地分类了大量输入,只出现了少量错误(图3h)。
从概念上讲,我们可以这样理解 Vector-HaSH 与传统(例如 Hopfield)自联想记忆网络相比的强大表现:后者的表现不佳,因为它们的固定点景观由模式的内容决定,导致基线大小不均且较小,存在许多虚假的极小值。在 Vector-HaSH 中,景观由支架设置,该支架具有大且间隔良好的盆地,而内容只是“挂”在这些预结构化的状态上。这个类比就像是一个晾衣绳(支架),任何衣物(感官模式)都可以挂在上面(通过异联想),如图2h所示。
空间记忆与推理
Spatial memory and inference259
我们现在考虑这个电路如何执行空间记忆。在这里,网格状态的度量或向量顺序,对于模式记忆来说并非必要,但对空间记忆至关重要。当自运动信号在空间导航过程中驱动度量有序的网格状态之间的转换时(图4a),我们发现 Vector-HaSH 的架构和动态支持高容量的终身空间记忆,没有灾难性遗忘,并且可以在新的路径上进行零样本空间推理。
在一个新房间中,我们随机初始化网格模块的相位,然后通过路径积分来更新每个模块的网格相位。Vector-HaSH 通过海马体学习这些更新网格状态与房间中的空间稀疏感官线索之间的关联,建立一个空间地图,这使得从感官线索中双向回忆网格状态成为可能,反之亦然(图4a)。
即使在房间中进行非常稀疏的探索后(图4c,左),Vector-HaSH 能够在完全新颖的路径上预测预期的感官观察结果,这些路径和路径段之前没有经过(图4c,右)。这种零样本空间推理能力源自速度积分:初始网格相位根据速度进行更新,以生成在新路径上的位置的准确相位,这些相位随后可以驱动从过去的相位重建或预测与之相关的感官线索。
接下来,我们考虑电路构建的空间地图以及它学习一系列不同房间的能力(图4d)。网格细胞和海马细胞展现了现实的空间调谐曲线,包括具有空间定位的通常单峰调谐的地方细胞(图4b)。对于每个房间,Vector-HaSH 学习到一个可靠的空间地图,可以在学习房间后进行测试来评估(图4e:比较每个细胞的前两列)。
为了评估顺序记忆以及对一个接一个获取的不同房间记忆的干扰和覆盖程度,我们在顺序学习了 11 个房间后评估了所有先前房间的回忆(图4e,第三列和图4f)。海马体和网格细胞的激活(地图)在获取多达 10 个新房间后保持不变。值得注意的是,完全没有灾难性遗忘,无需在回忆评估期间进行重放或巩固性联想学习以刷新先前的记忆。这种缺乏灾难性遗忘的现象归因于 Vector-HaSH 的特定架构和指数级扩展能力,其中随机的网格相位初始化结果是编码空间中分隔良好的地图(图4g)。
这些特性对应于在内嗅-海马电路中观察到的响应,包括对重复访问同一房间的响应的相似性以及不同房间的正交表示(图4h-i)。海马响应的其他特性,包括海马细胞在多个房间中具有场的概率分布,与实验数据相匹配(图4j)。
通过网格状态的向量更新实现高容量序列记忆
High-capacity sequence scaffold via vector updating of grid states290
序列记忆通常通过非对称 Hopfield 网络建模,这导致了类似于标准 Hopfield 网络的容量限制。值得注意的是,在 Vector-HaSH 中,可以以类似于项目记忆的方式构建大规模的序列记忆:通过将问题分解为高容量的抽象支架序列,然后通过异质联想附加内容。我们首先探讨如何构建这些高容量的序列支架。
当用户定义的模式决定了吸引子状态时,记忆网络的表现通常较差。序列记忆中的等效问题是,当用户定义的模式决定并驱动下一个用户定义的模式时:具有非对称权重的递归 Hopfield 类自联想海马网络会在大约 50 步内快速失败,无法准确重建下一个步骤。
我们推测,以类似于支架网络的方式将海马体与网格细胞模块递归耦合,可能支持高容量的序列再现,通过去噪和模式补全来纠正否则不准确的下一个步骤模式。这样做大约将电路的序列容量提高了一倍(达到约 100 步),但并没有从根本上改变容量与网络规模的关系。
接下来,我们推测学习一个抽象的序列支架状态而不是用户定义的状态,完全符合支架网络的精神,可能是解决方案。我们测试了从一个抽象的网格状态到下一个网格状态的过渡性能,使用从海马体到网格细胞的投影来提示下一个网格状态,充分利用支架架构。序列容量保持与 Hopfield 网络类似,约 30 步内会失败。这可能是因为即使抽象的网格状态也是特定的大活动模式,前一个状态必须足够准确地指定以重建下一个状态。这个失败及其假设原因给了我们关键的洞察:学习输入到速度移位机制,这只需要指定一个二维向量来确定当前网格状态下的下一个网格状态,将最小化信息量,可能会缓解序列重建的容量限制。
因此,我们使用前一个网格状态来提示下一个网格状态,但通过速度移位机制的大幅度维度和复杂性减少:前一个网格状态用于指定一个二维速度,指示在网格编码空间中移动的位置,以生成下一个网格状态。我们通过一个简单的前馈网络(MLP)建立了这些关联,图 5a(顶部),该网络通过海马体将前一个网格状态与二维速度向量关联起来。这种架构使得使用与之前相同(小)的支架网络细胞数量准确重建了 1.4 × 10^4 个网格状态的支架序列,图 5a(左)。
换句话说,回忆一个长的抽象网格状态序列可以通过解决一个更简单的任务来实现:回忆一个由简单的二维向量组成的序列,每个向量指示网格编码空间中从一个状态到下一个状态的移动。这使得序列重建能够实现更长,因为网络必须为每个步骤回忆的信息只是一个二维向量,而不是更大的网格模式状态,图 6g。与此一致,当我们通过增加可能的二维向量长度的范围来参数化地变化网络在每一步必须回忆的信息量时,回忆的序列长度的比例逐渐减少(图 5e;理论预期的缩放,在这种情况下,序列长度与指定下一步所需的比特数成反比,显示为蓝色)。因此,将序列回忆动态限制在一个低维流形中,其中仅需重建低维速度切向量而不是流形状态本身,从而导致序列长度的巨大增加。
从定量的角度看,我们可以采用统计方法来评估电路在每个网格状态上回忆随机速度(移位)向量的能力,图 5c。电路能够记忆并准确回忆长度约为 1.5 × 10^5 的序列,支架由 Nh = 500 和 Ng = 275 的网格细胞(周期为 5,9 和 13,因此总共有约 3.4 × 10^5 个总支架状态)组成;更长的序列在回忆性能上有适度的下降。对海马细胞数量的依赖小于对数级别,与项目记忆的缩放类似,图 5d(左),而对学习从状态到速度向量的维度减少映射所需的单位数量的依赖是线性的,图 5d(右)。
由于速度过渡是二维的,我们可以根据这些二维过渡绘制网格和海马状态(可能与物理二维空间对应或不对应),如预期,由于网格模块的不变性,我们在这个空间中获得了周期性的网格响应,图 5f;海马细胞表现出相对于网格细胞更稀疏和更局部化的调谐,图 5g。
总之,网格细胞积分网络的速度移位机制使得能够记忆相对于网络规模的指数级长的抽象网格状态序列。因此,网格细胞代码的路径积分能力不仅可以支持高效的空间推断和映射,还可以支持序列记忆,即使这些序列不涉及实际空间中的物理导航。这定义了一个高容量的抽象序列支架。
情节记忆
Episodic memory
正如高容量的项目记忆通过将动态和内容分解为固定点支架和异质联结来实现,Vector-HaSH 也通过将情节记忆分解为序列支架(如上所述)和异质联结来支持高容量的情节记忆。如前所述,抽象的网格细胞和海马支架状态在一个时间上展开的事件中与感官输入通过异质联结关联。
这种通过支架状态的时间展开可以通过基于海马状态的下一步速度回忆来实现(如图 5 所示);然而,在这种情况下,总序列容量受到 MLP 单元数量的限制(图 5d、6b)。我们假设一种额外的架构,其中下一步速度回忆基于回忆的感官输入(图 6a 底部,SI 图 S14)。在这种情况下,由于大量的感官细胞(图 6b,SI Sec. D.6 中的证明),所有下一步过渡都可以被回忆。请注意,如前所述,存储感官信息的突触权重与存储支架状态的权重完全独立。
序列支架的异质联结部分与个别项目记忆的异质联结相同(图 6a),包括通过生物学上合理的规则进行的一次性学习、对任意输入的可靠回忆,以及随着存储输入数量的增加而渐进的记忆衰退。如图 3g 所示,内部海马状态在整个记忆连续体中以高保真度计算,而异质联结的感官回忆保真度随着序列长度的增加而衰退(图 6f)。由于每一步的序列回忆基于(准确重建的)前一个海马状态,因此序列中每一点的感官状态的身份没有随着时间的推移而退化(图 6c)。在序列回忆过程中,网络回忆的感官信息的累积量渐进地接近一个常数(图 6e),类似于项目记忆(图 3f)。对于内容不明确的空间情节记忆,网格-海马支架中的顺序轨迹可以任意选择——在我们对 Vector-HaSH 中序列记忆最大范围进行的数值模拟中(图 6e-f),我们选择了一个在支架空间中填充空间的“发夹”轨迹。
因此,Vector-HaSH 通过异质联结到序列支架生成了高容量的情节记忆(图 6f)。这与 Hopfield 网络和尾环自编码器试图记忆相同的感官输入序列的差劲表现形成了鲜明对比(图 6d-e)。
总之,Vector-HaSH 中的海马-内嗅皮层电路能够通过利用网格-海马支架和网格细胞状态的向量更新,以高容量存储任意输入序列的情节记忆,即使在记忆中没有任何空间内容的情况下。
Vector-HaSH 再现了海马体现象学的多个附加方面
Vector-HaSH 再现了记忆巩固实验的结果,以及海马位置细胞的重新映射(参见图 4)和分裂细胞的现象学特征。
**记忆的多重痕迹理论** 假设情节记忆仍然依赖于海马体,因此海马体损伤应导致回忆能力下降,但重复呈现或回忆记忆应会选择性地强化记忆,使其对损伤更具抵抗力。我们将 Vector-HaSH 暴露于一组输入中,其中一部分输入被多次呈现或回忆。每次呈现或回忆都会导致感官-海马权重的进一步增加,使用相同的学习规则。我们发现,通过这种方式强化的记忆相对于其他记忆记得更为详细,即使在移除部分海马细胞后也是如此(图 7a-b,SI 图 S15)。另一种可能的巩固机制是每次重复的呈现或回忆事件激活一个新的支架状态,从而在相同的感官输入和多个支架状态之间增加关联。我们的数值结果在 Vector-HaSH 中并不支持这种机制,因为将相同输入与两个不同的支架状态关联会导致在呈现部分输入进行回忆时激活第三个支架状态。
**分裂细胞模型**(分裂细胞是一部分海马神经元,其在不变环境中的发射率根据上下文变化,例如根据起始位置和目标位置变化,或者随机觅食与定向搜索之间变化),我们假设一个足够不同的上下文触发网格模块的重新初始化(重新映射)。每个上下文分配一个随机选择的初始网格相位,并在该上下文中遍历环境时建立感官-海马-网格关联。当代理返回到该上下文时,存储的关联被回忆。
在这些假设下,我们模拟了观察到分裂细胞的实验。模拟的网格和位置场在 Y 迷宫的共享茎部基于右侧或左侧的运行情况有所不同;在树状迷宫、一维轨道上的左-右运行以及封闭路径上的顺时针与逆时针运行中也是如此(图 7c-f,SI 图 S16、S17、S18)。在这些模拟中,分裂细胞或路线/上下文依赖细胞与非分裂细胞的比率与实验中观察到的比率相似(图 7g),路径和‘方向性指数’量化了上下文(如轨迹方向)如何修改场位置的程度(图 7h-j)。我们的结果表明,我们可以预期网格细胞的空间调谐曲线中也会有类似的方向性依赖性(SI 图 S19)。
记忆宫殿(记忆宫殿法)技术的机制
记忆宫殿或记忆宫殿法(Method of Loci)是一种千年历史的有趣记忆技巧,被记忆运动员广泛利用于记忆比赛中。面对通常非空间化的记忆任务,如名字列表或一组扑克牌,记忆运动员会想象在一个非常熟悉且记忆深刻的空间中散步,例如自己的童年家或学校。他们将待记忆的序列项通过在心理上组织和存储它们在不同的位置和物体附近来附着在这些位置上。通过未知的神经回路机制,这种关联使得一-shot 记忆和回忆非常准确。
Vector-HaSH 的一个简单扩展为记忆宫殿的工作原理提供了第一个模型,帮助解释其强大功能。Vector-HaSH 初始化到一个在高度熟悉空间中的空间轨迹的起点。我们假设待记忆的项的皮层表现与熟悉空间轨迹中的回忆感官状态相关联。关键是,即使这些回忆的轨迹感官状态只是实际感官输入的近似(这是记忆连续性中的典型情况),这些近似状态仍然是可靠的一致:即使在近似情况下,Vector-HaSH 中的感官重建也是可靠的。与这些重建状态的关联使得新的模式本身也可以在 Vector-HaSH 的记忆连续体中被高度准确地重建。新皮层序列与感官回忆状态的异质关联相对于像情节记忆那样与海马状态的异质关联的关键优势是,即使在记忆连续体中,新的关联输入的回忆也依然精确和详细。
总之,Vector-HaSH 可以解释记忆宫殿技术的强大功能和机制:将任意新的输入序列与现有的记忆序列(即使这些序列本身也被不完全回忆)相关联,可以实现对新输入序列的一-shot 高容量和高精度记忆。
讨论
**相关模型**: Vector-HaSH 与近期的记忆模型相关联,因其共享了预先结构化的指数容量固定点支架的记忆理念。然而,文献99中的模型并未记忆外部指定的模式。与文献87类似,Vector-HaSH 具有一个三部分架构,其中外部提示通过异质关联与支架相关联。然而,文献87中不包含类似网格细胞的表示,因此缺乏 Vector-HaSH 所具有的强泛化和高容量序列记忆特性。
虽然密集的关联记忆能够存储大量模式,但它们的实现方式是通过在能量景观上的梯度下降来抽象的;当在具有成对突触的神经回路中实现时,它们需要指数数量的神经元(而不是 Vector-HaSH 的线性数量)来存储指数多的模式。
Vector-HaSH 与文献127、128中的海马模型类似,它们也使用固定的网格细胞表示。在文献127中,海马细胞通过网格细胞驱动低维更新机制,类似于我们的向量更新模型。然而,在这两个模型中,虽然网格表示是固定的,但支架并不具有不变性,因为网格-海马的权重是学习得到的。因此,它们缺乏高容量、大盆地和强泛化的特性。这些模型也不记忆外部输入,因此不是记忆模型。文献72中提供了一个相关的海马复合体记忆模型。该模型记忆外部提示,但与文献127、128类似,它缺乏固定的支架,因为没有固定的网格表示(原型网格网络中的递归交互对于每个环境是(重新)学习的)且网格-海马的权重是学习得到的。因此,它缺乏由固定支架带来的高容量和避免灾难性遗忘的特性。它也缺乏从海马或感官状态学习到的低维移动机制,因此无法存储接近于情节记忆所需的序列记忆。
鉴于海马体的大小比代表海马体记忆事件的皮层状态小几个数量级,任何海马体模型都必须涉及状态压缩。在 Vector-HaSH 中,海马体表示是紧凑的,因为网格-海马回路作为内容独立的指针或哈希机制来处理皮层中的内容。一种对比的压缩信息方式是通过基于内容的压缩,如 autoencoder 的瓶颈层所做的(图3及文献129)。正如我们在这里所见,直接的内容压缩学习表现不佳:这些模型缺乏 Vector-HaSH 的容量、对灾难性遗忘的抵抗力和序列记忆特性。
尽管如此,这些模型之间的共性指向了对海马复合体的趋同观点。Vector-HaSH 的高性能特性提示了对海马体电路机制的第一级计算理解,作为一个高效的记忆系统。除了 MESH130 外,Vector-HaSH 是我们所知道的第一个能够在关联内容可寻址记忆中存储指数大输入模式的模型。
**未来扩展和方向**Vector-HaSH 解释了内嗅皮层和海马体的一系列现象100, 110–115。与此同时,仍有许多未来研究和扩展的方向。这些方向包括:整合海马体的不同亚区域;将海马体中不同LFP频率峰值的现象及不同输入的主导作用与 Vector-HaSH 中的动态更新和信息流结构相关联;研究海马体和 Vector-HaSH 如何处理内部状态与外部提示之间的冲突以及原始输入与上下文输入的变化;实现层次化和相似性尊重的表示,以处理不同但相似的记忆;探索空间和事件的碎片化动态成子图和离散事件(例如,通过惊讶度102)以及图谱合并;理解在该回路中不同特定细胞类型的贡献及其在情节记忆中的角色。
**与解剖学的关系**: Vector-HaSH 基于海马体-内嗅皮层电路的结构。然而,在某些方面,它与经典观点有所不同:虽然海马体的输出到内嗅皮层和从内嗅皮层的输入被认为在内嗅皮层的深层与浅层之间分隔,但支架涉及一个紧密的回路,其中网格细胞驱动海马体并直接接收回传的镜像输入,这样的结构强化了输入网格模式。这一结构预测了深层到浅层的内嗅皮层投射闭合了一个完全自洽的回路,这可以通过连接组学来进行潜在测试。尽管对内嗅皮层-海马体的电路了解颇多,但新的发现仍可能带来惊喜:最近的报告显示,深层内嗅皮层接收海马体输入,并被认为主要将输出发送到新皮层,但实际上它们会将输出的副本再次发送回海马体131。
**随机网格到海马体的权重** 对于 Vector-HaSH 的若干特性至关重要,但这些权重是否是唯一的解决方案?我们的理论和模拟显示了随机权重的充分性和几种非随机或学习权重的不足性。然而,它们并未排除非随机解决方案的可能性。情况类似于高容量错误校正代码的扩展图构建132:虽然原则上存在非随机解决方案,但很难找到它们,而随机连接是充分的。由于 Vector-HaSH 是一个完整的动态神经回路,可以轻松直接查询关于表示、动态和在各种条件和扰动下学习的实验预测。
总结
总之,我们提出了一种模型,统一了海马体复合体在空间和情节记忆中的角色,展示了名义上空间的表示和架构对于良好表现的情节记忆至关重要,即使这些记忆没有空间内容。与未结构化的递归记忆模型76, 84, 86, 93–98, 125, 126, 133相比,该模型将联想记忆的问题分解为创建抽象固定点支架(用于稳健地自联想回忆大量抽象状态和状态序列)和通过前馈异联想(抽象的“指针”)将内容附加到这些抽象状态。数学上,该模型为每个输入模式创建一个哈希码,这由支架状态提供,利用支架的预结构递归连接来重新创建这些哈希状态作为动态的固定点,然后利用支架的强满秩属性实现(部分)解压或重建输入模式。从许多方面来看,该模型与过去的线索一致,这些线索暗示了抽象序列的存在,这些序列后来与新探索的空间关联66, 134。因此,Vector-HaSH 展示了记忆的生物学真实特性,如避免现有记忆模型的记忆悬崖。它通过优雅地权衡记忆细节和记忆项数,保持了在存储记忆数量大幅变化时的近乎最大记忆潜力。对于序列记忆,网格细胞状态的向量化和度量特性变得至关重要:当指定下一个状态所需的唯一信息是一个二维向量(指定方向和距离)而不是下一个状态的完整模式时,就能实现非常大的组合序列长度容量。
Vector-HaSH 提供了一种记忆宫殿技术机制的计算假设,基于理解空间和非空间记忆共定位的优势。该模型解释了为何令人印象深刻的记忆表现不需要卓越的智力能力或结构脑差异,但可以通过任何经过适当训练以适当调动海马体的人来利用120, 122, 135。从神经人工智能的角度来看,Vector-HaSH 的特定生物学架构、表示和学习规则使其在性能上显著超过了与之具有类似架构、可比或更多参数且约束较少的完全端到端监督训练记忆模型——这一发现证实了生物结构(归纳偏差)可以比在机器学习中常用的完全端到端训练模型产生更好的性能的假设。
方法
在参考文献87中,介绍了MESH联想记忆架构,利用三层网络存储众多独立的记忆状态。该架构允许在存储模式的数量和回忆的保真度之间进行权衡,从而实现了高容量的记忆。然而,MESH并不需要特别的网格细胞编码,也没有在支架学习中表现出强的泛化能力,并且没有表现出高序列容量。
在Vector-HaSH中,我们的记忆支架由一个递归电路组成,该电路包括MEC(内侧嗅皮层)网格细胞和一个海马体层,后者可以解释为海马体复合体的近端CA1和远端CA3区域。具体而言,我们按照参考文献136中的描述表示MEC网格细胞,其中每个网格模块的状态通过一个表示模块相位(因此是模块内活跃网格细胞组)的独热编码向量来表示。这些状态位于一个二维离散化的六边形格子上,周期为λ。因此,每个网格模块的状态由一个维度为λ²的向量表示。
构建的海马记忆支架随后用于生成独立的记忆位置,以存储通过感觉编码层呈现的信息,该层代表了内嗅皮层的非网格细胞成分。待存储的信息以感觉层中状态的二进制编码形式呈现,并通过伪逆学习的异联接权重“标记”到支架的记忆位置⃗x上。
上述两组方程可以结合使用 Vector-HaSH 作为内容可寻址记忆,从损坏的输入中恢复存储的感觉输入——首先从损坏的感觉输入中推断网格状态,然后从推断的网格状态中回忆出真实的感觉输入。
这些方程是在感觉输入为随机二进制状态的情况下编写的。在感觉状态为连续值的情况下(如图 3b 中的例子),方程 s 重建方程 (12) 被替换为 s(t + 2) = Wshh(t + 2)。
方程 (1-12) 描述了 Vector-HaSH 的核心工作机制——这个核心版本及其变体可以用来生成项目记忆、空间记忆、情节记忆,以及一系列实验观察,如图 7 中讨论的那些。
1 高容量模式重建
对于模式存储和重建的基本任务,我们使用了最简单形式的 Vector-HaSH,没有任何额外组件。为了检验重建能力,我们通过训练 Whs 和 Wsh 权重(如方程 (7-8) 所述)在网络中存储 Npatts 感觉线索。
Npatts 感觉线索需要与不同的支架状态对应。为了简化实现,我们选择了类似于图 5a 中间顶部的“发夹”式遍历来实现这一点。
然后,将之前存储的模式的干净版本或损坏版本呈现给网络中的感觉编码层,网络通过方程 (9-12) 传播,最终生成回忆的模式 s。
在所有主要文本中考虑的数值示例中,我们要么构造随机二进制 {−1,1} 模式,要么考虑来自 mini-imagenet 的图像。特别是,我们从前 6 类 {‘house-finch’, ‘robin’, ‘triceratops’, ‘green-mamba’, ‘harvestman’, ‘toucan’} 中选取了 3600 张图像,并将它们中心裁剪为中间的 60×60 图像,并将其转换为灰度图像。我们将这一灰度图像集称为 bw-mini-imagenet。
在所有模型中,记忆的模式是无噪声的集合,然后我们用无噪声、部分噪声或有噪声的线索测试记忆回忆。
在图 2 和图 3 中,网络的回忆性能和质量在具有三个网格模块、γ = 0.6 和 θ = 0.5 的网络中进行了检查。
在图 2c(右)中,容量是通过向海马层注入幅度为海马状态向量 20% 的噪声来评估的,并要求迭代动态将海马状态恢复到原始海马状态的 0.6% 以内(这里的幅度和距离通过 L2 度量计算)。
在图 2d(左)和补充信息图 S2 中,关键的 Nh* 被估计为 Nh 的最小值,使得所有支架状态都被稳定为固定点。SI 图 S2 中绘制的数据点对应的模块周期,两个模块的数据列在表 1 左侧,三个模块的数据列在表 1 右侧。同样,图 2c(左)中的网格模块周期列在表 2 中。
为了估计支架中存储模式的基域大小,如图 2e 所示,我们计算给定模式被完美恢复(即保持在其正确的基域内)的概率,随着海马状态被逐渐增加幅度的向量扰动。我们假设任何给定基域的大小可以估计为保持系统在相同吸引基域内的典型扰动幅度——对于非凸基域,特别是在高维空间中,这一假设不总是成立。然而,在测试在未相关噪声下的鲁棒性时,这一估计是相关的。此外,我们在补充信息 Sec. C.3 中进一步证明了这些基域确实是凸的。这里使用的网格模块周期 λ = [3,4,5],网格细胞数 Ng = 50,以及海马细胞数 Nh = 400。通过计算在 100 次不同随机噪声注入的实验中给定模式被正确恢复的比例来估计给定模式保持在其正确基域中的概率。
图 2f 考察了 Vector-HaSH 中的学习泛化,即 Vector-HaSH 在训练较少的固定点时自我生成与支架网格-海马状态对应的固定点的能力。对于给定数量的训练模式,我们通过计算在通过方程 4, 5 迭代时保持固定的状态数量来计算生成的固定点数量。如主文本中所讨论的,当在给定数量的训练模式上训练时(即少于所有模式的完整集合),模式的排序对于控制模型的泛化属性至关重要。对于 Vector-HaSH,我们将模式排序为覆盖二维连续空间区域(有关排序和排序自由度的更多详细信息请参见 Sec. C.4),从而实现最强的泛化(Sec. C.4)。
为了比较,在图 2f 中我们还考虑了“打乱的海马状态”,即在选择子集进行训练之前,支架状态被随机化排序。我们还考虑了“随机海马状态”:在这里,我们考虑每个海马状态向量并随机化其索引,从而构建一个新的状态向量,其稀疏性和统计特性与原海马状态相同,但与对应的网格状态不相关。然后,我们使用双向伪逆学习在网格和海马状态之间构建支架。这种网格与海马群体向量之间缺乏结构化的相关性导致了灾难性遗忘,在所有支架状态用于训练后没有观察到任何固定点。
为了检查 Vector-HaSH 在具有相关性的模式上的表现,在图 3e 中,我们使用网格模块大小 λ = [3,4,5] 和层大小 Ng = 50,Nh = 400,Ns = 3600 对 bw-mini-imagenet 图像进行训练。绘制的曲线显示了恢复和存储模式之间的均值减法余弦相似度,表明 Vector-HaSH 在存储模式的数量增加时表现出逐渐的退化。结果曲线是对 5 次不同稀疏随机投影 Whg 的平均值。
在图 7b 中,使用了周期 λ = [3,4,5] 的 Vector-HaSH,Ng = 50,Nh = 400,Ns = 3600,左、中为随机二进制模式,右为 bw-mini-imagenet 模式。结果是经过 20 次运行的平均值。使用了迭代在线伪逆学习91(ε = 0.01),通过向所有可学习权重矩阵 Whs、Wsh 和 Wgh 添加附加痕迹来强化部分模式。由于迭代伪逆从感官到海马层是完美的,Whs 强化在数学上不会改变 Whs。然而,由于 Wsh 导致重建的 s 状态逐渐衰减(即,从海马层到感官细胞层的迭代伪逆学习是有损的),因此 Wsh 中的强化改变了这些权重。每层 Vector-HaSH 的额外结果在测试多重痕迹理论时显示在图 S15 的右侧。此外,图 S15 的左侧显示了仅强化 Wsh 权重的结果,假设预训练的支架权重 Wgh。在这两种情况下,使用的参数设置与图 7b 中相同。
1.1 多重痕迹理论
在图 7b 中,我们考虑了 Vector-HaSH,参数设置为 λ = [3,4,5],Ng = 50,Nh = 400,Ns = 3600,γ = 0.6,θ = 0.5。该模型在 bw-mini-imagenet 的 3600 张图像上进行训练。对于多次呈现的感官输入,使用在线伪逆学习规则91 对感官-海马权重进行多次强化(图 7b),同时使用 Hebbian 学习对网格-海马权重进行多次强化(图 7b 右侧)。给定一个特定的损伤大小,损伤的细胞从所有海马细胞中随机选择,并将其激活设置为零。感官恢复误差定义为真实图像与模型重建图像之间的均值 L2 范数。在测试过程中,模型接收真实的感官图像作为输入,重建动态过程如下:
2 在多个空间环境中进行映射、回忆和零样本推理,无灾难性干扰
在这一部分,我们为 Vector-HaSH 添加了路径积分组件,利用速度输入来改变网格细胞群体活动,类似于参考文献33的做法,使得每个模块所表示的相位随着速度输入而变化。对应于用于表示每个网格模块的离散六边形格子空间,为了简化,我们假设速度具有六个方向之一,且幅度固定为常量,使得每个网格模块的相位在单个时间步内更新一个格点。因此,这个输入速度向量,我们称之为速度移位操作符,由一个六维的独热编码向量表示,用以确定移位的方向。
为了捕捉现实世界场景中固有的随机性和不确定性,我们在 Vector-HaSH 中引入了一小部分神经元噪声,通过向海马细胞的激活值添加随机扰动来实现。这些噪声从0到0.1的均匀分布中生成,模拟了个体神经元中观察到的波动和干扰,噪声幅度大约为海马状态向量幅度的25%。
为了捕捉现实世界场景中固有的随机性和不确定性,我们在 Vector-HaSH 中引入了一小部分神经元噪声,通过向海马细胞的激活值添加随机扰动来实现。这些噪声从0到0.1的均匀分布中生成,模拟了个体神经元中观察到的波动和干扰,噪声幅度大约为海马状态向量幅度的25%。
在图4a和图4c中,我们首先演示了从感官输入到网格状态及其反向的双向回忆。这里,我们使用了 λ = [3,4,5]、Ng = 50、Nh = 400、Ns = 3600 的 Vector-HaSH。我们在总共600个来自bw-mini-imagenet的感官输入(包括图4c中显示的房间中的4个地标)上训练了模型。为了在面板c中演示零样本回忆,模型在通过相同房间的新轨迹(右侧)上进行模拟,该轨迹与之前的轨迹有些位置重叠。注意,重建的地标没有完美的回忆。相反,由于模型中存储的地标总数超过了 Nh = 400(见图2f),因此重建相对于原始存储的地标有所退化。
对于图4的所有其他面板,我们使用了 λ = [3,4,5,7]、Ng = 99、Nh = 342、γ = 0.1 和 θ = 2 的 Vector-HaSH。这种网格编码空间的总容量为176400 ≈。每个房间通过将网格编码空间的随机10×10补丁分配给它来存储(这是通过首先选择房间中的任何随机点,将其映射到网格编码空间的随机区域来构建的。然后,随着模型在房间中的移动,路径积分相应地更新每个网格模块中的网格相位。模型实际探索房间时,网格编码空间的区域就是存储特定房间的补丁)。
对每个包含100个位置的房间,我们模拟一个独立的感官地标,作为二进制{−1,1}向量。在初始化时,在观察任何房间之前,我们从一个预训练的记忆支架开始,其中 矩阵已经构建并训练,符合方程2和方程3。
当首次进入房间时,网格状态初始化为分配给房间的网格编码空间随机区域的网格状态向量。然后,随着路径积分在房间中移动更新网格状态,观察到的感官地标状态通过学习 Whs 和 Wsh 矩阵(遵循方程7和方程8)与相应的网格-海马支架状态关联。
当首次进入房间时,网格状态初始化为对应于分配给房间的网格编码空间随机区域的网格状态向量。随后,随着路径积分在房间中移动,观察到的感官地标状态通过学习 Whs 和 Wsh 矩阵(符合方程7和方程8)与相应的网格-海马支架状态关联。
在每个房间的前两个测试中(一个是在房间学习后立即测试,另一个是在所有房间学习后测试;见图4d),Vector-HaSH 可以观察到感官地标线索。使用方程9,观察到的感官地标可以用来重建海马状态,结果如图4e所示,得到了可靠的海马调谐曲线。为了测试在黑暗中的稳定回忆(图4d和图4e),Vector-HaSH 被提供一个来自任何给定房间的随机单一感官地标线索。这个地标用来通过方程9确定对应于该地标的网格状态。随后,路径积分用于在没有进一步感官线索的情况下构建网格-海马支架状态。如图4e所示,这也可靠地重建了每个房间中每个位置的海马状态。
在图4f中,我们检查了在连续学习设置中每个房间的3600维感官地标的暗回忆。在这里,我们再次开始时仅使用预训练的网格-海马支架。随着第 i 个房间的探索,感官-海马权重矩阵被更新以存储到目前为止观察到的地标及其位置。在第 i 个房间内的每一步探索中,Vector-HaSH 被查询关于当前房间及所有先前房间的信息,方式如下:对于任何已完成的房间 j(即 0 ≤ j < i),Vector-HaSH 被随机放置在房间中的某个位置,并仅观察该起始位置的感官地标,不获取进一步的感官地标。然后,模型通过路径积分在房间内移动,尝试预测每个位置上观察到的感官地标。我们计算了每个地标在房间中每个位置的平均互信息,如图4f所示。对于部分完成的房间 i,Vector-HaSH 同样被随机放置在房间内,但仅限于房间中之前观察到的位置。感官预测中的互信息恢复同样仅评估先前观察过的房间部分。
对于图4f中显示的基准模型,我们首先通过与 Vector-HaSH 相同的稀疏度的随机海马状态构建网格-海马网络,并进行网格层和海马层之间的双向伪逆学习。随后,感官地标像在 Vector-HaSH 中一样与海马层关联,并对基准模型进行相同的测试协议,以检查连续学习。基准模型中的节点数保持与 Vector-HaSH 相同。
对于图4h,我们遵循实验中的相同分析。计算了所有十一间测试房间的群体向量(PVs)之间的点积。为了构建群体向量,我们记录了每个模拟房间中10×10位置的海马细胞的激活情况。我们将这些记录堆叠成100个综合群体向量(PVs),每个位置一个。为了计算表示之间的重叠,房间中每个海马细胞的激活被表示为该细胞在所有房间中的最大激活的比例。重叠计算为两个房间中海马细胞激活向量的归一化点积,即对应分量的乘积之和除以给定位置/像素的海马细胞总数(Nh = 342),在100个位置上取平均。图4h中的颜色编码矩阵显示了跨房间(11×10/2 = 55房间对)的PV点积值的平均值。
对三个熟悉房间的重复暴露也被添加到这一分析中,导致总共有14×10/2 = 91房间对。
对于图4j,我们绘制了计算的PV归一化点积的分布(对于所有房间的多次访问),并使用该PDF计算相应的CDF。类似地,通过相同的程序计算了打乱数据的CDF,但使用打乱的数据来计算PV归一化点积。打乱数据的生成方式包括房间之间的速率图随机分配(打乱房间)、房间内细胞身份的打乱(打乱细胞)或这两种程序的组合(打乱房间和细胞)。每种情况下生成的不同打乱数量为1000。
3 海马支架中的路径学习
在此,我们再次向 Vector-HaSH 添加了一个路径积分组件,如上所述,使得可以使用速度偏移操作符 来进行路径积分并更新网格细胞群体活动,这类似于参考文献33中的方法,使得每个模块表示的相位与输入偏移相对应。
对于在空间中学习轨迹,这个向量 可以与空间位置和相应的海马状态向量(如路径学习中)或感官地标输入(如路线学习中)相关联。
图5和图6中的结果是使用 Nh = 500,γ = 0.6,θ = 0.5,M = 3 和 Ns = ∏M λ2 M 得到的,其中 λ = [5,9,13] 用于图5b-e 和图6b,而 λ = [3,4,5] 用于图5f,g 和图6c。
图6e中的所有网络都构建为大约有 5×10^5 个突触,网络参数与图3d中的参数相同。图6中的所有面板考虑了随机二进制模式,除了图6c,d,这些图考虑了 bw-mini-imagenet 图像。
3.1 路径学习
通过伪逆学习从海马层直接学习到速度输入的关联,只能在 的情况下实现完美回忆,而这可能远小于网格编码空间,从而导致无法回忆非常长的序列。为了获得更高的容量,我们通过多层感知器 (MLP) 从海马细胞状态学习到该空间位置对应的速度输入的映射。对于图 5 和图 6c,h 中显示的所有结果,我们在 MLP 中使用了一个包含 250 个节点的隐藏层。
对于图7c-j和图S17中的所有模拟,我们使用了 λ = [3,4,5,7]、Nh = 500、Ng = 99、θ = 2.0 和 γ = 0.10 的Vector-HaSH。网格编码空间的总大小为420×420 ≈ 105。为了捕捉现实世界场景中固有的随机性和不确定性,通过在Vector-HaSH中向海马细胞的激活值添加随机扰动引入了一小部分神经噪声。这种噪声从0到0.1的均匀分布中生成,模拟了个体神经元观察到的波动和干扰。
**分裂细胞:**对于图7c,g,我们采用了与实验数据分析相似的方法。中央主干分为四个相等的区域(图S18b),并计算每个海马细胞在这四个区域中的平均激活值。图S18c绘制了在Left-Turn和Right-Turn试验中,Vector-HaSH穿越中央主干时在每个区域中显示不同活动模式的细胞的平均激活值。然后,对于在区域中激活差异最大的细胞,计算右转试验相对于左转试验的“激活比率”。图7g中绘制了这些激活比率的分布,显示了与左转或右转试验相关的偏好放电的细胞频率分布。请注意,偏好左转和右转试验的细胞分布大致均匀。使用激活比率的阈值2,发现Vector-HaSH中无差异放电的海马细胞的百分比约为3.896%,而有差异放电的海马细胞的百分比约为96.103%。
**路径编码:**在图7d,h中,我们采用了一种类似于实验方法的群体分析方法,以验证海马细胞是否展示路径依赖的活动。我们的模拟会话包括四个块,每个块代表四条路径(0-3)之一,每块11次试验。我们在所有路径的共同迷宫区域上进行了群体分析。
我们比较了每条单独轨迹上的海马细胞激活的群体向量(PV)与每条路径上所有轨迹的平均激活群体向量(route-PV)。具体来说,我们将每条轨迹的PV与所有四条路径的平均激活群体向量(route-PVs)进行比较,排除被考虑的轨迹以避免偏差。
我们使用余弦相似度评估每条轨迹PV与每条路径PV的相似度。然后,我们计算了正确匹配(最高相似度得分与其对应的路径PV)和错误匹配(更高的相似度得分与不同路径PV)的比例。比较结果如图S16a,左侧所示。
我们重复了10,000次随机化数据的过程,以估计正确匹配的机会概率。我们通过在块之间随机打乱试验,随机将每条轨迹分配给四条路径之一,从而破坏海马细胞激活与特定路径之间的任何关联。图S16a右侧显示了其中一次打乱的典型结果。
对于每个矩阵元素(i, j),我们在图S16b中绘制了这些10,000个矩阵的数据分布。然后,我们使用高斯内核估计(Python的scipy.stats.gaussian_kde方法)从该分布中估计概率密度函数(PDF)。为了衡量我们原始未打乱分析中正确匹配的机会概率,我们计算了观察到的匹配比例的百分位位置,参考未打乱矩阵中的相同矩阵元素(i, j)(图S16a)。
https://github.com/FieteLab/
https://www.biorxiv.org/content/biorxiv/early/2023/11/28/2023.11.28.568960.full.pdf
热门跟贴