厦门免费医学论文发表-非人类灵长类动物可以灵活地学习序列并重新排序与上下文相关的对象序列

2025-06-25

厦门免费医学论文发表-非人类灵长类动物可以灵活地学习序列并重新排序与上下文相关的对象序列


宣温,亚当·诺伊曼,西玛·洪加纳,蒂洛·沃梅尔斯多夫


抽象

智能行为涉及以新颖的方式在心理上安排学习到的信息,在人类中尤其发达。虽然非人灵长类动物 (NHP) 将学习按序列顺序排列新物品并按照该顺序重新排列相邻物品,但它们是否能够更灵活地将物品重新分配到不相邻的序列位置仍然存在争议。这种心理重新索引是通过推断经验的顺序结构而不是学习项目-项目关联的序列链来促进的。在这里,我们测试了恒河猴灵活的心理重新索引能力。被试学会了按照预定的顺序选择五个物体。当对象顺序发生变化时,背景上下文的变化表明,探测对象在脑海中将对象重新排列到所学序列结构的非相邻位置。被试成功地使用上下文提示主动地将项目重新索引到新的、不相邻的位置。当初始顺序在更高层次上学习时,心理重新索引的可能性更大,随着重新索引规则的更多经验而得到改善,并且与延迟匹配样本任务中的工作记忆性能相关。这些发现表明,NHP 推断了超越项目-项目关联链的经验顺序结构,并在该结构中在心理上重新排列项目。结果模式表明,NHP 形成了他们经验的非空间认知地图,这是许多序列有序行为(包括交流、计数或觅食)中灵活心理作的标志。


数字

图 4图5图 6图 1图 2图 3图 4图5图 6图 1图 2图 3

 

引文: 温 X, 诺伊曼 A, 洪加纳 S, 沃梅尔斯多夫 T (2025) 非人类灵长类动物可以灵活地学习序列并重新排序依赖于上下文的对象序列。公共科学图书馆生物学23(6): e3003255。 https://doi.org/10.1371/journal.pbio.3003255


学术编辑: Simon W. Townsend,瑞士苏黎世大学


收到: 2025 年 2 月 4 日;接受: 2025 年 6 月 9 日;发表: 6月 23, 2025


版权所有: © 2025 温 et al.这是一篇根据知识共享署名许可条款分发的开放获取文章,该许可允许在任何媒体上不受限制地使用、分发和复制,前提是注明原作者和来源。


数据可用性: 支持这项研究的数据在开放科学框架存储库中公开提供:https://osf.io/2vk97/ (DOI: 10.17605/OSF)。IO/2VK97)。所有用于复制主要和补充图的分析代码都可以在 GitHub 上公开获得:https://github.com/xwen1765/Re-ordering-of-Sequential-Order-in-Nonhuman-Primates。


资金: 这项工作得到了美国国家心理健康研究所(R01MH123687 到 TW)的支持,网址:https://www.nimh.nih.gov。资助者在研究设计、数据收集和分析、发表决定或本手稿的准备方面没有任何作用。


利益争夺: 作者已声明不存在相互竞争的利益。


缩写: DMTS, 延迟匹配到样本任务;罗斯福 错误发现率;大马及多媒体委员会, 马尔可夫链蒙特卡洛;M-USE, 用于实验的 Multi-task Suite;非人长 / 非人灵长类动物


介绍

心理灵活性是指以新颖的方式安排思想或行动的能力。许多连续有序的行为都需要灵活的心理作,包括交流、计数、解决问题和觅食 [1,2]。这些串行行为受益于了解指导信息排序的底层顺序结构。在语言系统中,交流可以依赖于基于句法规则结构将单词灵活地排列成句子;计数和数学运算依赖于了解常规编号系统;反映问题结构的子目标排序有助于解决问题;如果保留栖息地位置的空间映射结构以简化选择正确的觅食地点,则觅食会变得高效。对于所有这些例子,当序列信息的底层结构已知时,心理作和行为会变得更加灵活。与这一建议一致,从经验中推断顺序结构并在该结构中在心理上重新排列信息的能力是智力测量的基础,与非人类灵长类动物 (NHP) 相比,人类的智力表现尤其突出 [3,4]。然而,NHP 如何能够推断抽象的顺序结构,以及它们是否可以使用该结构灵活地指导心理作 [5–8] 仍然存在争议。


用于测试受试者如何从他们的经验中推断顺序结构的强大实验范式涉及视觉对象的序列排序 [9,10]。使用序列顺序学习范式的研究表明,NHP 能够按顺序对对象进行排序,并在脑海中按顺序交换顺序或附近(相邻)对象。特别是,非人灵长类人灵类能够理解多项目序列中物体的相对序数位置[11–18],当它们彼此相邻时,能够按顺序交换物体位置[19,20],并以相反的顺序向后调用3个项目序列中的项目[21,22]。这些能力突出表明,非人灵长类在心理上纵等级排序的项目方面表现出一定的灵活性,但这些实验结果也指出,与人类相比,非人灵长类在提取视觉物品中的顺序结构方面的局限性,超出了物品的等级顺序,这表明它们的心理能力仅限于附近物品的序列链接[5,23].例如,将序列 A-B-C 倒过来调用为 C-B-A 的能力涉及将项目重新排序到序列中的新位置 [21],但这种重新排序可以通过交换序列中相邻项目的相对等级来实现,而无需表示抽象的顺序结构或项目被灵活分配到的序数位置 [24]。


在这里,我们着手研究 NHP 是否能够在心理上将 5 项序列的项目重新排序到该序列中新的、不相邻的位置。NHP 学习了对象 A-B-C-D-E 的序列,在他们学习了初始序列后,用上下文提示进行探测,以将不相邻的项目 B 和 D 重新排序为一个新的 A-D-C-B-E 序列。通过将特定对象项表示为分配给序列序数位置的独立信息,而不是表示不考虑底层序数结构的对象-对象对链,可以实现将对象重新排序到序列中的不同位置[21]。在计算模型中,这种经验环境的时间顺序结构可以被描述为物品位置的非空间认知地图[7,25]。非空间认知地图可以从经验中推断出来,并存储在长期记忆中的突触权重中,或者可以使用工作记忆将它们保留在正在进行的活动槽中[26]。我们假设恒河猴能够从经验中推断出这种非空间结构,并且当它们主动将不相邻的物体项目 B 和 D 重新排序为一个新的 A-D-C-B-E 序列时,这种结构就会被揭示出来。为了测试这种能力是否受到长期记忆和工作记忆的影响,我们将测试处于不同经验水平的 NHP 的顺序行为,并将他们的表现与通过不同任务评估的短期记忆表现联系起来。


我们使用安装在其家笼中 Kiosk 站的触摸屏上显示的 3-D 渲染对象测试了四只恒河猴对象序列的学习和灵活重新排序 [27]。该范式要求 NHP 按预定的顺序选择五个对象,如 S1 Movie 所示(图 1A)。对象在屏幕上同时显示。受试者在连续的试验中学习了五个对象的顺序。在每次试验中,他们都会收到关于他们是否在正确序数位置选择对象的即时视觉反馈(所选对象周围的光晕)。当选择不正确时,他们必须重新触摸最后正确选择的对象。在每次试验中,当他们完成五个对象序列时,他们都会获得流畅的奖励。当他们在 15 次试验中没有完成序列(最多 10 个错误)时,他们没有获得液体奖励。当序列完成或达到最多 15 个选择时,向受试者展示一个新的试验,其中相同的对象被安排在新的位置以防止空间策略。在表演过程中,受试者为每个正确选择的物体接收到即时视觉反馈(黄色光环;选择不正确:灰色光晕)和滑块位置的增量(错误选择:递减),这表明受试者距离获得液体奖励还有多少步(图 1A,见 S1 电影)。


缩略图下载:

PPT的PowerPoint 幻灯片

PNG放大图片

国际电影节原始图像

图 1. 学习 5 对象序列。


(A) 每项试验提出了六个目标。猴子学会了按照预定的顺序 A-B-C-D-E 触摸五个物体,并避开一个分散注意力的物体。正确的选择会导致视觉反馈(黄色晕)并增加屏幕顶部进度条的滑块位置。猴子在完成序列后获得了流畅的奖励。(B) 每个序列在相同的“背景 1”上在 15 个单独的试验中呈现。然后上下文发生变化,对象位置 2(对象 B)和 4(对象 D)交换(红色字体)。在 5-6 对“上下文 1 – 上下文 2”对之后,受试者执行了 120 次试验的延迟匹配与样本 (DMTS) 任务。然后,再次使用会话早期的大约 3 个新序列对和大约 3 个重复序列对进行序列学习。序列在以岩石或沙子为主题的背景下呈现。(C) 在试验 12-15 中对上下文 1 中每个序数位置的正确选择的建议。较深的虚线表示前瞻性的几率水平,即假设受试者不考虑重新选择以前正确的对象。较浅的虚线是绝对几率水平 (1/6)。误差线表示 95% 的 conf. int. (D) 完成 5 个对象序列的平均速率。符号表示第一次试验 (±SE),参与者平均在 80% 的试验中完成一个序列,并且这种表现水平至少连续三次后续试验保持。(E) 错误率最低的“良好”序列的前三分之一(<5.33 个错误)和“较差”序列的后三分之一(>6.6 个错误)的平均完成率。红色和蓝色三角形分别代表良好区组和差区组达到完成 (±95% CI) 的平均试验数,仅考虑达到完成阈值的区组。此图的基础数据可以在 S1 数据文件中找到。


https://doi.org/10.1371/journal.pbio.3003255.g001


在以相同的序列进行 15 次试验后,背景(上下文 1)更改为新的背景(上下文 2),该背景显示相同的对象,但需要新的预定顺序,对象 B 和 D 交换位置。因此,“上下文 2”背景的出现为受试者重新排序他们在前 15 次试验中学到的物体序列提供了线索。任务范式允许评估序列学习(在上下文 1 中)和学习序列的重新排序(在上下文 2 中)。“上下文 1 + 2”对使用同一组多维对象 [28]。在持续约 90 分钟的单独实验中评估了 12 到 12 个独特的“上下文 1 + 2”对。会话进行到一半时,在四到五个上下文 1 + 2 序列对之后,受试者执行了 120 次试验,以评估短期记忆的延迟匹配样本任务(图 1B)。在延迟的样本匹配任务之后,受试者又执行了 5 到 6 个上下文 1 + 2 序列对。这些延迟执行的上下文 1 + 2 序列对中的两到三个与会话前面显示的相同(即,它们是重复的序列),这允许评估长期记忆效应。


我们发现,被试在情境 1 中逐渐学会了完成 5 个对象序列 A-B-C-D-E。当背景更改为上下文 2 以指示相同的对象被重新排序为 A-D-C-B-E 时,它们总体上并行遵循两种不同的策略。在上下文 2 的一些试验中,他们在上下文 2 的第二个序列位置选择了对象 C 而不是 B,即,他们认识到对象 B 需要重新排序,但错误地选择了下一个对象 C 而不是正确的对象 D。在第二个序数位置错误地选择 C 表明被试错误地推断了序列中的下一个相邻对象,即,他们遵循了序列推理策略。在其他试验中,在上下文 2 中,受试者正确预测了对象 B 和 D 的交换位置,并选择了第二个顺序位置的对象 D。当初始序列学习得更好时,这种主动交换比串行推理策略更有可能,并且它与逐个会话级别的工作内存性能相关。研究结果表明,NHP 有效地使用上下文线索在脑海中重新索引学习的顺序结构中的对象。


结果

学习对象序列

四只恒河猴在 30.25 个实验会话中完成了序列学习任务(对象 B:11;J:40;K:59;S:11)。为了评估受试者是否成功获得 5 个对象序列,我们计算了受试者在上下文 1 中执行每个序列的 15 次试验的最后四次试验中每个顺序位置的正确选择比例。我们发现所有受试者在每个记录成功学习的序数位置上都表现出高于机会(序数位置 1 (OP 1) 的正确比例:0.67(平均值)± 0.026(95% conf.);OP 2:0.41 ± 0.016;OP 3:0.55 ± 0.020;OP 4:0.59 ± 0.017;OP 5:0.79 ± 0.020)(图 1C 和 S1A)。为了评估序列的学习,我们评估的不是单个序数位置,而是通过计算受试者平均需要多少次试验来完成 5 个对象序列,在 80% 的高于机会水平的试验中,即 10 个或更少的错误选择。受试者在 6.62 ± 0.37 次试验中平均达到 80% 的完成率(受试者 B:11.40 ± 1.23;J:8.39 ± 0.58;K: 4.74 ± 0.40;S:6.11 ± 1.03)(图 1D)。序列学习性能在 S1 影片中直观地显示。这些结果表明,被试在多次试验中逐渐学习了 5 对象序列。学习存在可变性,这允许根据每个序列的试验中每次试验的平均错误数对序列进行排序,并比较最少错误和最多错误的学习。对于每次试验错误最少的前三分之一序列(每次试验 ≤5.33 个错误),在 2.68 (±0.20) 次试验后达到 80% 的完成率,而错误率最高的序列(每次试验 >6.6 个错误)仅在 9.25 (±0.51) 次试验后达到 80% 完成率(图 1E)。


学习在所有五个序数位置上逐渐进行,在 1.02 次试验后(±0.03,95% 置信区间)后,第一序数位置的平均准确率达到 80%,在试验 1.24 (±0.09)、1.81 (±0.19)、2.60 (±0.33) 和 3.69 (±0.45) 后,第二到第五个序数位置的平均准确率达到 1.24 (0.09)、1.81 (0.19)、2.60 (0.33) 和 3.69 (0.45) (S1B 和 S1C 图)。通过减少对尚未选择的对象的错误选择来实现学习,而持续的错误或违反任务规则(规则:“如果犯了错误,请重新选择最后正确选择的对象”)的情况很少见(S1D 和 S1E 图)。反应时间从第二序数位置逐渐增加到第五序数位置,与之前的研究一致(S2 图)[29]。


被试主动地对学习良好的对象序列中的不相邻对象进行重新排序

接下来,我们测试了受试者是否可以将学习的 A-B-C-D-E 序列的对象重新分配到不同的序数位置。当受试者在上下文 1 中完成序列的 15 次试验时,我们将上下文背景更改为新的上下文 2,并将相同的对象重新排序为新的顺序 A-D-C-B-E。上下文 2 中的序列交换了对象 B 和 D 的位置(图 2A,例如性能,参见 S1 Movie)。总体而言,受试者最初在情景 2 中的表现在少数试验中下降,但随后迅速适应了情景 2 中交换的序列,在试验 3.43 中以 80% 的平均完成率完成了 A-D-C-B-E 序列(±0.56,平均值 ± 95% CI),而在情景 1 中初始学习 A-B-C-D-E 序列的试验为 6.62 (±0.72)(S2A 图).与上下文 1 中序列的新学习相比,上下文 2 中交换序列顺序的调整速度在每个主题中都很明显(主题 B 中上下文 1/2 序列的完成率:5.91 (±0.89)/4.27 (±0.80);J:4.71 (±0.53)/2.67 (±0.31);K:2.98 (±0.26)/1.97 (±0.17);S 5.91 (±0.94)/3.27 (±0.60) (S2B 图)。上下文 1 和 2 的序数位置的反应时间相似(S2C 和 S2D 图)。


缩略图下载:

PPT的PowerPoint 幻灯片

PNG放大图片

国际电影节原始图像

图 2. 受试者在不相邻的序数位置之间交换对象。


(A) 上下文 2 交换了对象 B 和 D 的序数位置。(B) 在上下文 2 中错误选择对象 B 后立即选择对象的概率:对于 A:0.007 ± 0.003 (95% CI);B:0.004 ± 0.002;C:0.356 ± 0.020;D:0.450 ± 0.022;E:0.130 ± 0.014;干扰项:0.054 ± 0.010。三颗星表示 p < 0.001 差异(使用 Bonferroni 校正的 Welch t 检验)。(C) 当上下文 1 序列学习得更好(蓝色:三分之一表现良好的序列,每次试验的误差较低 (≤5.33) )时,在上下文 B 的错误后选择对象 D 的可能性更大(每次试验的序列中有三分之一的序列错误数最高 (>6.6])。(D) 在达到 80% 完成率之前,在上下文 1(上)、上下文 2(下)中正确选择 A 后,第一个被触摸对象的选择概率。(E) D 中上下面板的差异。在上下文 2 中,受试者更有可能选择 D 而不是 C 和 B。(F) 在上下文 2 中正确选择 D 后第一个被触摸对象的选择概率。星号表示显著性水平(Welch's t 检验与 Bonferroni 校正)。误差线是 SE。此图的基础数据可以在 S1 数据文件中找到。


https://doi.org/10.1371/journal.pbio.3003255.g002


在上下文 2 中,受试者如何适应对象 B 和 D 的交换位置?串行链接框架预测受试者将错误地选择第二个序数位置的对象 B,并通过在第三个序数位置选择下一个相邻对象 C 来适应此错误,因为它的相对位置最接近第二个位置,即,他们推断了序列下一个序数的位置对象。我们将此行为称为反映串行推理策略。与这种连续推理相反,被试也可能在第二个序数位置主动选择对象 D。这将表明他们理解 D 在上下文 1 中被索引到绝对第四位置,并且需要在上下文 2 中重新排列到新的 A-D-C-B-E 序列中。我们发现受试者同时使用了这两种策略,但更有可能的是,对象 D 从上下文 1 中的第四个序数位置重新索引到上下文 2 中的第二个序数位置(图 2 和图 3)。为了量化这两种策略(连续推理和重新索引)的使用,我们首先分析了学习阶段情景 2 中的平均选择,即在受试者在情景 2 中达到 80% 的完成率之前。当受试者在上下文 2 中错误地选择对象 B 时,他们更有可能通过正确选择下一个对象 D 而不是对象 C 来适应此错误(Welch 的 t 检验,p = 2.9 × 10−9) (图 2B)。我们认为这一发现表明了响应错误反馈的追溯主动重新索引。


缩略图下载:

PPT的PowerPoint 幻灯片

PNG放大图片

国际电影节原始图像

图 3. 贝叶斯分析量化了序列重新排序过程中单个受试者的选择策略。


(公元 - 丁)在上下文 2 中选择对象 A 后选择对象 B、C 和 D 的选择概率的后验估计。(东至半)估计对象 D 到 B 和 D 到 C 的选择顺序的后验分布差异。所有受试者的选择序列 D→B 均高于 0,两名受试者的选择序列 D→C 均高于 0。(I) 在上下文 2 中,在会话中的第二个序数位置使用不同策略的比例。序列推理策略对应于 P(C) > P(D) 和 P(C) > P(B);交换(位置编码)策略对应于:P(D) > P(B) 和 P(D) > P(C);其他策略在任何时段中都不明显,但可能包括:P(B) > P(C) 和 P(B) > P(D) 和 P(C) > P(D)。三个受试者(受试者 J、K 和 S)主要表现出交换策略(位置编码),而一个受试者(受试者 B)使用序列推理策略(受试者 J:位置编码:62.4%,序列推理:37.6%;受试者 K:位置编码:99.6%,序列推理:0.4%;受试者 S:位置编码:100.0%,序列推理:0.0%;受试者 B:位置编码:0.1%,连续推理:99.9%)。其他策略在任何学科中均不明显。此图的基础数据可以在 S1 数据文件中找到。


https://doi.org/10.1371/journal.pbio.3003255.g003


接下来,我们询问对象 D 到上下文 2 中的第二个序数位置的重新索引是否随学习上下文 1 中初始序列的深度而变化,假设当上下文 1 中的初始序列以更高的熟练度学习时,重新索引的可能性更大。我们发现,当在更高的层次上学习上下文 1 中的初始 A-B-C-D-E 序列时,即对于上下文 1 中错误率最低的三分之一序列(每次试验 <5.33 个错误)时,上下文 2 中对象 D 的追溯性重新索引的可能性更大(选择对象 A 的平均比例:0.0067 ± 0.0018(平均值± SE);B:0.0041 ± 0.0014;C:0.3609 ± 0.0109;D:0.4856 ± 0.0113;E:0.1078 ± 0.0070;干扰项:0.0349 ± 0.0042)(图 2C)。当上下文 1 表现不佳时,即对于错误率最高的三分之一序列(每次试验 >6.6 个错误),受试者同样经常应用正确的重新索引策略(选择第二个位置的对象 D)和不正确的序列推理策略(选择第二个位置的对象 C)(选择对象 A 的平均比例: 0.0058 ± 0.0029;B:0.0015 ± 0.0015;C:0.3480 ± 0.0182;D:0.3509 ± 0.0182;E:0.1944 ± 0.0151;干扰项:0.0994 ± 0.0114)(图 2C)。


在第二次分析中,我们量化了被试是否利用上下文的变化(上下文 2 的出现)主动交换对象,即 - 在上下文 2 中正确选择 A 后 - 他们是否在第二个序数位置选择了对象 D,而没有错误地选择对象 B。我们发现,与上下文 1 相比,在上下文 2 中,对象更有可能选择对象 D 而不是 B,这表明对象 D 从上下文 1 中不相邻的第四个位置主动重新索引到上下文 2 中的第二个位置,但对象也更有可能选择对象 C 而不是 B,表明错误的序列推理策略(D 与 B, C 与 B,t 检验,均 p < 0.001;图 2D 和 2E)。然而,直接比较对象 D 和 C 的选择表明,在正确选择对象 A 后,对象更有可能选择对象 D(表示重新索引)而不是对象 C(表示连续推理)(Welch 的 t 检验,p < 0.01;图 2D 和 2E)。这种结果模式表明,在适应新上下文时(在达到 80% 完成率之前),受试者认为对象 C 和对象 D 都是上下文 2 中可能的目标对象,但他们更有可能应用重新索引策略,预期对象 D 是第二个位置的正确对象。


重新索引策略的一个预测是,一旦在上下文 2 中正确选择了对象 D,受试者接下来应该选择对象 C,而不是错误地选择对象 E,在上下文 1 中跟随对象 D。与这一假设一致,受试者在选择 D 后选择对象 C 的可能性高于对象 E,即他们将对象 E 留在第五序数位置(图 2F)(韦尔奇 t 检验,第 < 1 × 10−10;正确选择对象 C:0.415 ± 0.010,错误选择对象 E:0.232 ± 0.009 和对象 B:0.263 ± 0.008)。


为了解决主动交换策略在受试者之间是否一致,我们应用了分层贝叶斯模型来估计每个人在上下文 2 中选择 A 后立即选择对象 B、C 或 D 的概率(图 3A-3D)。对于每个受试者,在第二个顺序位置选择 D 的概率始终高于选择对象 B 的概率,而在四个受试者中的 3 个中,对象 D 比对象 C 更有可能被选择,这与交换作为主导策略一致(图 3E-3H;受试者 B:B = 0.20 ± 0.01(平均 ± SE),C = 0.33 ± 0.01,D = 0.26 ± 0.01;受试者 J:B = 0.20 ± 0.01,C = 0.26 ± 0.01,D = 0.27 ± 0.01;受试者 K:B = 0.20 ± 0.01,C = 0.29 ± 0.01,D = 0.32 ± 0.01;受试者 S:B = 0.20 ± 0.02,C = 0.28 ± 0.02,D = 0.44 ± 0.02)。其中一个受试者(受试者 B)在第二个有序位置选择对象 C 的可能性高于对象 D,这表明序列推理策略优于交换策略。为了评估跨受试者的总体结果模式是否会区分两种选择策略,我们在上下文 2 中汇总了跨受试者的结果,发现 D 的选择概率超过选择 B 的后验概率为 0.99,选择对象 D 超过选择 C 的后验概率为 0.657。这些结果表明,最高的可能性是受试者选择 D 而不是两者,对象 B 和 C 位于第二个序数位置,这与主动将对象 D 交换到第二个序数位置是普遍的策略一致。


我们进一步研究了主动交换是否是单个实验会话级别的主要检索策略,或者交换是否与串行推理或其他策略混合。为了解决这个问题,我们在每次估计中将三种候选策略与上下文 2 中对象 B、C 和 D 的选择概率拟合:交换位置,即位置编码(对象 D 比 B 和 C 更有可能被选中)、序列推理(对象 C 比 B 和 D 更有可能被选中)和其他(既不是位置编码也不是序列推理)(图 3I).分析显示,在大多数会话中,交换 D 和 B 作为选择策略受到青睐,65.68% 的会话显示该策略的后验模型概率。串行推理策略占会话的 34.23%。


到目前为止的交换结果表明,受试者在上下文 2 中调整了他们的选择,这与将对象 D 和 B 重新索引到不同的序数位置一致,但这种重新索引可能取决于有效利用受试者收到的即时视觉反馈来做出正确和错误的选择。例如,当受试者在上下文 2 中正确的第二个序数位置选择对象 D 时,他们会收到积极的反馈,平均而言,这将增加继续选择对象 D 的可能性,而不是错误地选择对象 C 在正确的第二个序数位置。为了控制这种可能性并测试在没有收到反馈的情况下重新索引是否明显,我们进行了第三次分析,仅限于上下文 2 中第二个位置(即,在正确选择对象 A 之后)的第一个选择,并将其与相同条件下上下文 1 中最后一次试验的第一个选择进行比较(图 4).在所有序列中,上下文 2 的第一次试验中的“第一选择”更有可能使用对象 D 而不是对象 B(带 FDR 校正的 Welch t 检验,p = 0.0227),也更有可能使用对象 C而不是对象 B(Welch t 检验,p = 0.0227)(图 4B)。将情景 2(第一次试验中的第一选择)与情景 1(最后一次试验中的第一选择)中的选择进行比较表明,受试者不仅比对象 B 更有可能选择 C 和 D,而且他们选择对象 D 的可能性高于对象 C(韦尔奇 t 检验,p = 0.0026)(图 4C)。这些发现表明,总体上,受试者在上下文变化后的第一选择中已经在上下文 2 中使用了两种不同的策略:序列推理(选择对象 C 作为第一选择)和在第二个序数位置将对象 D 重新索引为第一选择。与上下文 1 的直接比较表明,重新索引策略比串行推理策略更普遍(图 4C)。当考虑所有序列时(图 4A-4C),以及只考虑在上下文 1 中学习最好的所有序列的三分之二的子集(在上下文 1 中每个试验平均 <6.6 个错误)时,会发现这种结果模式(图 4D-4F)。然而,在考虑性能不佳的序列时,即当将分析限制在上下文 1 中表现不佳的序列的三分之一的子集时,主动重新索引策略和序列推理策略都不明显(在上下文 1 中每次试验平均 >6.6 个错误)(图 4G-4I)。


缩略图下载:

PPT的PowerPoint 幻灯片

PNG放大图片

国际电影节原始图像

图 4. 当序列学习良好时,受试者会在选择反馈之前主动重新索引对象顺序。


(A) 上下文 1 的最后一次试验中第一选择的选择概率(选择对象 A 后)。(B) 上下文 2 中第一次试验的第一选择的选择概率(选择对象 A 后)。对象 D 的选择频率高于对象 B。(C) 上下文 2 的第一次试验的第一选择与上下文 1 的最后一次试验之间的选择概率差异。星号表示 p < 0.05 (*),p < 0.01 (**),p < 0.001 (***)(带 FDR 校正的韦尔奇 t 检验)。(D-F)对于在上下文 1 中性能最佳的第三个块,格式与 A-C 相同(每次试验 <5.33 个错误,前三分之二的块)。(G-I)对于上下文 1 中性能最差的第三个块,格式与 A-C 相同(每次试验 >6.6 个错误,块的底部三分之一)。(J) 受试者正确选择对象 A 上下文后“第一选择”选择概率的逐次试验差异 2.蓝线表示选择 D 而不是 B ('D-B') 的可能性差异,而其他线表示选择 C 而不是 B 的可能性(灰色:'C–B')和选择而不是 C(黄色:'D-C')的可能性差异。在上下文 2 的第一次试验中,对象 B 被选为首选的可能性低于 C 和 D,从第七次试验开始,对象 C 被选为首选的可能性低于 D。(K) 情景 2 中所有区组中第七次试验的选择概率。对象 D 的选择频率高于对象 C。此图的基础数据可以在 S1 数据文件中找到。


https://doi.org/10.1371/journal.pbio.3003255.g004


受试者在上下文 2 中执行了 15 次试验的交换序列,使我们能够跟踪试验中第二个序数位置的第一个选择,以量化何时选择对象 D(重新索引到第二个序数位置)可靠地超过选择对象 C(错误地从第三个序数位置选择下一个相邻对象)。该分析证实,总体而言,在上下文 2 的第一次试验中,受试者已经避开了第一选择中的第二个序数位置的对象 B,但在上下文 2 中平均需要七次试验,受试者才选择对象 D 的可能性高于对象 C(图 4J 和 4K)。


Sequence memory and rule memory improves swapping ability

To swap the position of objects in a sequence depends on (1) recalling the original sequence from memory and (2) on understanding the swapping rule. We tested how long-term memory affected swapping performance by evaluating performance of sequences in the second half of the session after subjects completed the delayed match-to-sample task. Subjects performed five to six context 1 + 2 sequence pairs in this second half of the experimental sessions (Fig 1B). Half of these ‘late’ context 1 + 2 sequence pairs were novel (‘New Late’ sequences), but the other half were identical to a context 1 + 2 sequence pair that was shown prior to the delayed match-to-sample task (‘Repeat’ sequences). If long-term memory facilitated performance and swapping of positions B and D in context 2 of the late sequences, then we expect that late, repeated sequences were performed better and showed more prominent pro-active swapping than late, new sequences. We found that subjects reached the 80% completion rate already after on average 1.29 (±0.13 95% CI) trials for repeated sequences, which was faster than the on average 3.5 (±0.54) trials subjects needed to learn the same sequence early in the session, and it was also faster than the 2.90 (±0.47) trials needed to reach 80% completion rate for new sequences that were interspersed late in the session (‘New Late’ sequences) to control for a possible effect of the time-in-task (Figs 5A and S3). The likelihood of pro-active swapping was already above chance for context 2 of the early sequences and did only marginally increase further in repeated sequences, evident as a statistical trend (New Early versus Repeat: p = 0.0717; New Early versus New Late: p = 0.1178 Repeat versus New Late: p = 0.7913; Fig 5B). However, in repeated sequences subjects were significantly more likely in context 2 to retro-actively swap object D into the second position after erroneously choosing object B at the second ordinal position (New Early versus Repeat: p = 0.0014; New Early versus New Late: p = 0.0020; Repeat versus New Late: p = 0.3133; Fig 5C). This pattern of results shows that memory of the sequence from earlier in the session facilitated error correction in trials when subjects failed to pro-actively swap object D into the second ordinal position.


thumbnailDownload:

PPTPowerPoint slide

PNGlarger image

TIFForiginal image

Fig 5. Memory of object sequences improves pro-active and retro-active swapping performance.


(A) 工作记忆任务前序列的完成率 (New Early),以及工作记忆任务后执行的新序列和重复序列的完成率 (New Late, Repeat)。(B) 情景 2 中的主动交换(大于 0 的值反映选择 A 后 D 比 B 更有可能被选中):预期 D 在情景 2 中处于第二位置在所有情况下都同样明显。(C) 在情景 2 中错误选择对象 B 后进行追溯交换(大于 0 的值表示在选择 B 后,选择 D 的可能性比 C 更大):选择对象 D 与 C 的差异。(D) 在情景 1 中更好的表现(蓝色与红色:较高与较低的完成率)与在情景 2 中主动交换对象 D 和 B 的可能性较高相关。(表现不佳的序列:M = 0.1471, 95% CI [0.1201, 0.1740];表现良好的序列:M: 0.2102, 95% CI [0.1964, 0.2240];P: 5.2 × 10−5).(E) 上下文 1 中完成率的回归和上下文 2 中紧跟在对象 A 之后选择对象 D 的可能性(β:0.2136;截距:0.0215;R2: 0.0214;P: 3.67 × 10−8;科恩的 f2: 0.0220).不同的颜色代表单个主题。黑色虚线是跨所有主题的数据点计算的回归。(F) 与 D 相同的逆向主动交换格式,即在错误选择 B 后在上下文 2 中的第二个序数位置选择对象 D(表现不佳的序列:M: -0.0194, 95% CI [−0.0999, 0.0611];表现良好的序列:M: 0.1202, 95% CI [0.0809, 0.1594];t 检验,p:0.0024)。(G) 上下文 1 完成率和上下文 2 中追溯主动交换的回归 (β: 0.3502;截距: -0.1968;R2: 0.0079;P: 0.0017;科恩的 f2: 0.0079).颜色适合来自不同主题的数据;黑色虚线回归线基于所有受试者的数据组合。(H) 在上下文 2 中,在对象 A 之后主动选择对象 D 的可能性比在 124 个有效会话中选择对象 B 的可能性更大 (M: 0.20, 95% CI [0.18, 0.22];第 1 < 页 1 × 10 页−10).效果在会话中强度增加(回归β值:0.0020;P: 0.0030;科恩的 f2: 0.0773).(I) 在上下文 2 中错误选择 B 后选择对象 D 的可能性比在 121 个有效会话中平均选择对象 C 的可能性更大(M: 0.10;95% CI [0.06, 0.14],单样本 t 检验,p = 1.8 × 10−5).回归斜率(红线)不显著(β值:0.0015;P: 0.2559;科恩的 f2: 0.0110).此图的基础数据可以在 S1 数据文件中找到。


https://doi.org/10.1371/journal.pbio.3003255.g005


Next, we analyzed whether the depth of memorizing the initial sequence early in the session influenced the swapping performance of that sequence later in the session. We found that subjects more likely pro-actively swapped D into the second position in context 2 for repeated sequences late in the session when the sequences were better memorized early in the session, i.e., when they were performed at a higher completion rate (R2: 0.02, p = 3 × 10−8) (Fig 5D and 5E). Similarly, retro-active swapping of object D after erroneously choosing B in context 2 at the second position was also more likely late in the session when the initial sequence was better learned early in the session (R2: 0.0079, p = 0.0017) (Fig 5F and 5G).


These findings show that learning a sequence early in the session at a higher performance level predicted not only improved retro-active swapping in context 2 early in the session as described above (Fig 2C) and late in the session (Fig 5F and 5G), but also improved the ability to pro-actively swap objects B and D in context 2 late within the session (Fig 5D and 5E).


In addition to these findings of within-session memory effects, there is also the possibility that swapping abilities change with experience across sessions. Such an across-session effect would be expected if subjects improve in applying the swapping rule. We found that pro-active swapping was apparent already in the first experimental sessions and gradually increased over sessions (R2: 0.0717, p = 0.0030; Fig 5H), while the likelihood of retro-active swapping remained similar across sessions (R2: 0.0108, p = 0.2559) (Fig 5I).


Pro-active swapping of object positions correlates with working memory

Computational work has shown that learning a sequence can be similarly achieved with long term memory that retains sequential relations in synaptic weights, or with working memory that retains sequential relations in recurrent network activity [26]. According to these insights the subject’s ability for to retain objects in working memory might be predictive of overall speed of learning sequences or the ability to flexibly swap objects in the sequence. Consistent with this later suggestion recent neurophysiological findings support the suggestion that swapping objects from later and earlier ordinal positions involves transiently storing the position index of the original objects in a temporary variable, which is similar to a short-term memory buffer [21]. We thus hypothesized that pro-active swapping performance can be predicted from subject’s working memory ability. We tested this hypothesis by assessing working memory with a delayed match-to-sample in the same behavioral sessions that assessed swapping (Figs 6A and S4). We found that working memory performance did not correlate with sequence learning accuracy (Fig 6B), but working memory accuracy significantly correlated with pro-active swapping abilities on a session-by-session basis (Fig 6C). This result indicates that successfully swapping object D and B in context 2 is not only influenced by longer term sequence-memory (Fig 5), but also by an ability to hold objects active in working memory.


thumbnailDownload:

PPTPowerPoint slide

PNGlarger image

TIFForiginal image

Fig 6. Working memory performance correlates with pro-active re-indexing performance.


(A) 延迟匹配样本 (DMTS) 范式。(B) 在会话中,DMTS 准确性与序列的完成可能性无关。(C) DMTS 准确性与主动交换相关,即在上下文 2 中在 A 之后选择对象 D。黑线表示平均线性混合效果模型;颜色显示单个主体。(D) 情境促进序列学习:在相同情境(n = 669,黄色)下重复的序列完成率高于不同情境(n = 427,蓝色):相同情境:均值 ± 95% CI:0.0868 ± 0.0104;不同的上下文:0.0662 ± 0.0111l 韦尔奇 t 检验:p = 0.0083。(E, F)重复序列中的相同和不同环境导致相似的主动交换性能(E:相同环境:平均值 ± 95% CI:0.0374 ± 0.0279;不同的上下文:-0.0083 ± 0.0286;Welch t 检验:p = 0.3556),以及类似的逆向主动交换(F:相同背景:均值± 95% CI:0.0374 ± 0.0279;不同背景:0.0083 ± 0.0286;Welch 的 t 检验:p = 0.1225)。此图的基础数据可以在 S1 数据文件中找到。


https://doi.org/10.1371/journal.pbio.3003255.g006


接下来,我们测试了学习序列的上下文背景的记忆是否会影响交换行为。当一个序列在工作记忆任务之后重复时,它会在与初始新序列相同或不同的上下文背景上呈现。我们发现,与在不同的上下文背景上显示重复序列相比,当重复序列的上下文相同时,重复序列与早期(初始)序列的序列学习性能有所提高(Welch's t 检验,p = 0.0083;图 6D)。然而,这种整体情境便利并没有调节情境 2 中的主动或追溯主动交换(主动 sapping:Welch 的 t 检验:p = 0.3556;图 6E;追溯主动交换:Welch 的 t 检验:p = 0.1225;图 6F)。


讨论

我们发现恒河猴每次实验都会学习 6-8 个新的 5 对象序列,即延迟匹配到样本任务之前的 4-5 个序列和延迟匹配到样本任务后显示的 5-6 个序列的 2-3 个新序列)(图 1 和 S1 电影)。当上下文的变化表明不相邻的物体 B 和 D 交换位置时,四名受试者中的三名更有可能交换这些物体,而不是错误地选择序列中排名第二的物体 C(图 2B-2F 和 3)。交换是主动发生的,即在犯错误之前(图 4A-4F、5B、5D、5E 和 5H),以及追溯主动发生的,即当受试者在上下文 2 中的第二个序数位置纠正了 B 的错误选择时(图 5C、5G 和 5I).四个因素与更好的交换性能相关:首先,当序列在前一个上下文 1 中以更高的熟练水平学习时,上下文 2 中的逆向主动交换更有可能发生(图 2C 和 4D-4F)。其次,当在同一实验会话中大约提前 30-60 分钟以更高的熟练程度进行时,在上下文 2 的重复序列中更有可能进行主动交换(图 5D-5G)。第三,当交换规则执行了更多会话时,在实验过程中交换变得更有可能(图 5H)。第四,主动交换与受试者的工作记忆表现呈正相关,通过单独的延迟匹配样本任务进行评估(图 6C)。与在情景 1 中成功记住序列对交换行为的重要性一致,在情景 2 中表现出交换行为的可能性低于序列推理(即,在选择 A 后继续选择对象 C 的可能性大于 D)的一名受试者(受试者 B)是情景 1 中学习表现最差的受试者,在试验 11.40 中平均达到 80% 的完成率,而另一个试验中达到 4.74-8.39 次试验猴子(图 1D)。


Taken together, these results show that rhesus monkeys infer the temporal order of objects during sequence learning and are able to swap the index of object identities to absolute positions in that latent order when a new context instructed them to reassign objects to new temporal positions.


Swapping behavior reflects flexible mental re-indexing of object associations

成功的主动交换行为表明,猴子使用交换序列的上下文作为提示,将上下文 1 的对象 A-B-C-D-E 重新排序为上下文 2 中的新 A-D-C-B-D 顺序。最近在一项实验中提出了这种线索触发的重配置过程的神经元相关性,该实验要求 NHP 向后回忆 2 项和 3 项序列的空间顺序 [21]。额叶皮层神经元组代表向前的空间 2 项序列 A-B,直到提示指示受试者向后回忆序列。在将正向序列重新编码为向后序列的过程中,额叶皮层中的神经元群活动瞬时编码正向 A-B 序列和交换的项目 A 作为 2 级对象和 B 作为 1 级对象。这种向前和向后项目顺序的瞬态编码之后,神经元群仅代表需要调用的向后序列 [21]。这些发现表明,交换相邻对象的顺序涉及一个短期记忆,该记忆在单独的神经元群中包含旧的项目顺序(向前序列)和新的项目顺序(向后的项目顺序)。虽然这些神经元发现仅限于向后播放相邻项目,但我们建议它们提供了一个多功能框架来概念化我们研究中对象到非相邻位置的重新索引。特别是,该框架预测,在我们的研究中,上下文 1 中 A-B-C-D-E 序列的对象将由索引其序数位置的神经元编码 [22]。当上下文发生变化并且对象 D 和 B 需要交换时,对象 B 和 D 的原始索引被临时编码在短期缓冲区中,并且原始的 A-B-C-D-E 序列被重新配置为新的 A-D-C-B-E 序列。当此作完成后,不再需要瞬时缓冲器,交换的序列由一组神经元编码,该神经元与编码初始序列的神经元组部分不同 [21]。这个框架有两个关键的见解。首先,它表明交换作涉及将对象重新索引到它们在序列中的绝对序列位置,其次,交换涉及对序列中新旧对象位置的临时短期记忆。索引作要求对象和顺序结构在执行此作的神经元网络中独立编码,这得到了神经生理学证据的充分支持[21,22]。我们的结果与这个框架一致,并表明 NHP 在学习将对象交换到不相邻的序列位置时能够利用这些神经元重新索引过程。这个建议超越了框架,比如 Serial Chaining 框架,这些框架建议 Sequences 和 Sequential Re-order 涉及形成新的 Item-Item 关联的序列链。综上所述,在我们的研究中,非相邻对象位置的主动交换的普遍性记录了心理作的高度灵活性,这与将对象重新索引为抽象的顺序结构一致。在我们的研究中,顺序结构是对象被索引的项目位置的直线。这样的线构成了非空间认知地图的最简单形式之一,它被认为是灵活认知的基石[7,26,30]。


Mental re-indexing of object positions is linked to working memory abilities

We found that pro-active swapping in context 2 was more likely in sessions in which subjects also showed better delayed match-to-sample task performance, suggesting a relationship of working memory and pro-active swapping (Fig 6C). In contrast, working memory did not correlate with the average speed of learning the sequence (Fig 6B). This pattern of results is consistent with the suggestion that learning a sequence initially involves associative mechanisms while swapping relies on mentally manipulating a learned structure in working memory. Consistent with this suggestion the re-indexing framework postulates a transient short-term memory representation of the to-be-swapped objects is needed to re-arrange the order of a sequence [21]. More generally, a short-term memory enables prospective planning of temporal orders of items that are not physically visible. For example, prospective working memory has been documented in NHPs using paradigms that require planning ahead by masking future items of a sequence or require comparisons of the relative rank of items that appeared in different lists [19,31–35]. Our results extent these studies by suggesting that stronger working memory performance as measured with a delayed match-to-sample-task is linked to the mental ability for flexible re-indexing of objects to non-adjacent temporal positions.


Swapping of sequences uses long-term memory

In addition to working memory, our results also suggest that pro-active mental re-indexing is more likely when the sequential structure of object relationships has been more firmly learned in long-term memory. Subjects more likely pro-actively swapped object B and D in context 2 the better they had learned the sequence in context 1. This result suggests that pro-active swapping is a behavioral strategy that becomes available once a sequence is sufficiently well represented in memory [36]. A computational study supports this conclusion by quantifying the beneficial role of storing sequences in long-term memory compared to storing the same information in ongoing recurrent activity slots in working memory [26]. Using long-term memory avoids capacity limitation of short-term memory and thereby allows for more complex sequential structures. Our results suggest that the ability to form a longer-term memory of the sequential structure was central for the ability to pro-actively swap objects within that sequence. When subjects had a poorer long-term memory of the sequence, i.e., when they only poorly learned the context 1 sequence subjects they equally likely applied (erroneously) a serial inference strategy, i.e., choosing at the second ordinal position the adjacent item C instead of item D in context 2 (Figs 2C and 3G–3I). This finding extends previous studies that document monkeys represent [11,15–18], and memorize long term [12,31] serially ordered items by their relative ordinal rank. Our results are consistent with these prior findings by suggesting that representing serially ordered objects by chaining neighboring objects and knowing their relative rank in the sequence is a ‘default strategy’ by NHPs that is applied to a sequence when it is (1) either not learned sufficiently deep, or (2) when there is no task requirement to infer a more abstract temporal structure that would support the mental re-indexing operations of non-neighboring positions. According to this interpretation, NHPs are able to infer the sequential structure with sufficient experience of the temporal structure and do not have a ‘hard cognitive limitation’ of inferring temporal structures from item sequences beyond representing serial chains of item-item associations [5,23]. This conclusion is consistent with the re-indexing framework discussed above. It is well supported by neurophysiological evidence of neurons in the frontal cortex as well as in the medial temporal cortex. In these brain areas neuronal responses have been found that are tuned to the ordinal rank of items in multi-item sequences [22,37–39]. Prefrontal rank-selective neuronal responses predict the specific items that a subject uploads at each position even when that item is erroneously uploaded and leads to an unrewarded choice [37,40]. The neural coding of a rank position independently of the specific item that is encoded at that rank in principle supports a flexible assignment of items to different ranks, documenting that neuronal representations are not limited to serial item-item associations.


Our finding that rhesus monkeys are able to learn more than 6–8 new 5-object sequences every experimental session is an empirical finding that was not expected from the literature, which often trains shorter sequences, or trains the same sequence over multiple days. We speculate that the key determinant of the successful behavioral performance in our study – the ability of NHPs to flexibly re-index objects to non-adjacent positions in learned sequences – was facilitated by various design features of our task. Firstly, NHPs were exposed in each behavioral session to multiple sequence pairs with context 1 and the swapped items of context 2 already early during training. This design aspect ensured the swapping rule was not a rare exceptional task feature, but an integral part of their daily task environment, motivating them to figure out how to complete swapped sequences in context 2 in order to receive rewards. Secondly, our task paradigm enforced the rule ‘retouch-the-last-correct-item after-an-error’, which ensured that erroneously made serial object connections were not left unnoticed by were corrected immediately by the correct pair (see S1 Movie). Lastly, the task paradigm provided immediate performance feedback of every choice in the form of the halo feedback and the stepping forward or backward of the slider position of the progress bar (Fig 1A).While only the halo or only the slider progress would have been sufficient to provide feedback information this design aspect may have enhanced the likelihood subjects recognize when an object was chosen erroneously, which may facilitate learning.


Conclusions

Taken together, our results show that NHPs are able to flexibly re-index objects to a non-adjacent position within 5-object sequences once they have been learned at high proficiency. This mental flexibility suggests that NHPs form non-spatial cognitive maps and use them to mentally manipulate items during goal-directed behavior [7]. We speculate that this mental capacity will have evolved in NHPs to support a higher level of adaptiveness of behavior during many serially organized behaviors beyond arranging visual objects in novel temporal relationships [2].


Materials and methods

Ethics statement

All animal and experimental procedures complied with the National Institutes of Health Guide for the Care and Use of Laboratory Animals and the Society for Neuroscience Guidelines and Policies and were approved with the approval number M1700198 by the institutional review board Vanderbilt University Institutional Animal Care and Use Committee (IACUC).


Experimental procedures

四只雄性恒河猴(猴 S:10 岁/12.6 公斤;猴 B:10 岁/10.8 公斤;猴 K:12 岁/11.9 公斤;猴子 J:13 岁/12.9 公斤)用于本研究。他们使用安装在笼子上的触摸屏站在壳笼中执行实验任务[27](图 1A)。视觉显示、行为反应注册和奖励交付由多任务实验套件(M-USE)控制[41]。M-USE 是一个基于开源视频引擎的 Unity3D 平台,集成了触摸屏、摄像机系统和奖励交付硬件。


该任务需要学习五个对象集合的顺序时间顺序。我们通过使用多维 3D 渲染的四边形对象 [42] 从多达 10 个不同的特征维度中随机为每个对象分配不同的特征,为每个新序列生成了新的对象集。我们使用了 Quaddle 2.0 对象,这些对象在 10 个特征维度(例如,形状、颜色、身体图案、不同的手臂方向、头部的存在等)中有所不同,每个对象都有 >10 个可能的特征值(不同的身体形状、可变颜色等)。(图 1C)。这些对象是使用 Blender 软件和在线免费提供的自定义 Python 脚本生成的 [28]。在实验中,对象颜色被选择在感知定义的 CIELAB 色彩空间内等距。物体显示在 Elo 2094L 19.5 英寸 LCD 触摸屏上,刷新率为 60 Hz,分辨率为 1,920 × 1,080 像素,在屏幕上以 2.9-4.2 × 2.4-4.7 厘米渲染。


对于每个序列,都会显示一个新的上下文背景图像。上下文图像是使用 DALL·E 2,OpenAI 开发的 AI 系统,使用文本提示从岩石和沙子类别中获取图像。我们对图像应用了颜色滤镜,以获得更多不同的上下文背景,确保每个颜色滤镜保持固定的亮度值 50。颜色是通过在 CIELAB 色轮周围均匀分布来选择的,从而确保色调多样化。将背景图像的亮度调整为 HSL 量表的 ≤50%。


任务范例

在每次试验中,六个物体以相对于屏幕中心相等的偏心率出现在随机位置(图 1A)。其中 5 个对象在序列中被分配了一个唯一的序数时间位置,而第 6 个对象是序列无关的干扰物。每个序列最多用于 15 次试验。在每个试验中,受试者最多有 15 个选择来完成序列并通过选择物体(通过用手触摸它们,参见 S1 电影)并获得流体奖励,并接收正确选择的正反馈(黄色光晕和高音调声音)或负反馈(瞬态灰色光晕和低音调声音)触摸不正确时间位置的物体。在错误的选择之后,被试必须重新选择序列中的最后一个正确对象,然后才能搜索序列中的下一个对象(参见 S1 影片)。试用完成后,将对象从屏幕中删除,并开始新的试用,将对象显示在与显示中心等距的随机新位置。对于每个正确选择的对象,屏幕顶部滑块进度条的滑块位置会向前移动。成功完成一个序列总是会完成滑块进度条并导致水奖励。当序列未完成时,不会提供流体奖励,并且滑块进度条被设置回滑块范围的 25%,以便在随后的试验中使用相同的对象在新的随机位置进行试验。滑块条的更改对任务性能没有帮助。滑动条的两个目的是向受试者提供额外的视觉反馈,了解他们的对象选择是正确还是错误(从视觉光环反馈中可以明显看出相同的反馈),以及他们距离完成序列并获得奖励还有多少选择。受试者可以忽略滑块进度。然而,以前的研究表明,以符号资产(如视觉代币或获得主要奖励的进度状态)形式的二次反馈为受试者提供了激励,让他们继续完成任务并努力完成当前任务[43]。与这一行为证据一致,符号资产的收益和损失(代币或滑块状态变化)会导致眶额叶皮层、纹状体和杏仁核的神经元活动发生变化,它们在这些地方起着激励作用并调节强化学习[44]。


After completing 15 trials on a sequence A-B-C-D-E we changed the background context and swapped the order of object B and D, requiring performing the sequence A-D-C-B-E for the next 15 trials (Fig 1C). We refer to the initial and the swapped sequence as a ‘sequence pair’.


延迟呈现新颖和熟悉的序列以及相同或不同的上下文。

每个会话首先在第一组中呈现 4 或 5 个序列对,然后交错 120 次延迟匹配试验到样本任务,然后是第二组 5 或 6 个序列对(图 1B)。在第二组中,其中一个序列对是新颖的,四到五对是在延迟匹配样本任务之前呈现的早期第一组序列中的重复序列对(图 1B)。重复集中 50% 到 75% 的序列以相同的上下文呈现,而其余序列则以不同的上下文随机呈现。


Distractor 对象。

在每个试验中,六个对象中有一个是序列无关的干扰物。选择干扰物的特征维度,使其与初始序列的第二个对象(然后成为交换序列中的第四个对象)具有高度的特征相似性。序列无关的干扰对象与序数位置 2 的序列相关对象(对象 B)仅在三个特征上有所不同,而序列的其他对象则不共享特征(图 1C)。分析结果(S5 图)显示,被试最有可能将干扰对象与上下文 1 中第一个序列中的对象 B(第二个序数位置)混淆,也与上下文 2 中第二个交换序列中的对象 B(第四序数位置)混淆。


Interleaved delayed-match-to-sample working memory task.

After the first and before the second set of sequences, subjects performed a delayed match-to-sample task (DMTS) for 120 trials (Fig 5A). The DMTS task is part of the M-USE platform [41]. DMTS used Quaddle 1.0 stimuli that were composed of features from four feature dimensions (nine different body shapes, 10 different arm styles, nine different body patterns, eight different color). In each block of the experiment, either two feature dimensions shared the same feature (high similarity), or none of the dimensions shared any features (low similarity). The DMTS trial presented a sample object for 0.5 s, followed by a delay of 0.5, 1.25 or 1.75 s, before two or three test objects were shown. One of the test objects matched the sample and when touched resulted in a yellow halo, a high pitch sound and a token reward (a green circle) that was added to a token bar [41]. Choosing non-matching objects resulted in a grey halo, a low-pitched tone, and a grey token that was subtracted from tokens available in the token bar. The token bar contained three placeholders for tokens and flashed white/red when all three tokens were completed, resulting in the delivery of fluid reward.


Analysis of sequence learning.

在每个试验中,受试者最多可以犯 10 个错误来到达序列中的最后一个、第五个对象,否则在新位置使用相同的对象开始新的试验。多达 15 项试验以相同的顺序显示。我们将学习量化为完成对象序列的试验比例。对所有受试者的试验完成率应用 S 形拟合。学习达到标准表现的试验被定义为受试者正确完成 80% 的试验的第一次试验。为了评估整体表现,我们计算了每个受试者会话的平均完成率。当超过 80% 的试验完成时,我们定义了表现良好的序列;低于此阈值的区块被视为性能不佳。为了评估每个序数位置的学习一致性,我们计算了一个区组内试验中每个序数位置的对象正确选择的比例。对于每个顺序位置,我们确定了受试者实现 80% 正确对象选择的试验。


为了分析试验中的学习与选择反应时间变化的相关性,我们计算了每个序数位置的后续选择的平均时间(S2 图)。我们分别绘制了达到 Trial 到 80% 标准完成率之前和之后的试验的反应时间,以研究学习对反应时间的影响。应用 Welch t 检验来比较每个序数位置学习点前后的反应时间差异。


错误分析。

为了评估受试者的学习方式,我们量化了试验中不同错误类型比例的减少(S1D 和 S1E 图):(1) 在尚未学习的对象中选择不正确的对象时发生探索错误;(2) 违反规则的错误涉及错误地重新选择或未能在错误后重新选择最后正确选择的对象,或重新选择之前正确选择的对象;(3) 选择 Distractor 对象时出现 Distractor 错误;(4) 一个持续性错误涉及在重新选择之前选择了与上一个选择相同的错误对象。我们计算了每种误差类型相对于所有误差的总体比例,作为区组中试验的函数。为了评估受试者在试验中减少每种类型误差的速度,我们在 15 次试验中拟合了指数衰减函数,其中 a 表示衰减幅度,b 表示衰减速度(在 S1E 图中绘制),c 表示渐近基线。将相同的衰减函数单独应用于每个会话,并绘制衰减速度以比较不同错误类型减少的速率。使用单样本 t 检验进行统计分析,将衰减因子与零进行比较,并应用 Welch t 检验来比较每对误差类型。


Analysis of re-ordered sequences with swapped object positions.

We tested how subjects learned the swapping of objects B and D from the first sequence A-B-C-D-E in context 1 to the second sequence A-D-C-B-E in context 2 (Fig 2). A sigmoid fit was applied to the completion rates over trials in context 1 and context 2. We calculated the average trials needed to reach learning criterion (≥80% completion rate) for each session across sequence pairs in context 1 and context 2, using a t test to compare the differences. To investigate the effect of swapping on search time, we plotted the average reaction time for each ordinal position in both conditions (S2D Fig). Next, we analyzed which objects subjects chose after they incorrectly chose object B at the second ordinal position in context 2. A Welch’s t test was used to compare the transition probability of objects C, D, or E. We also calculated the probabilities of choice separately for well-performed and poorly performed blocks. To quantify how likely subjects chose objects at each ordinal position in context 1 and context 2 before they reached the 80% learning criterion, we calculated transition choice probabilities after choosing object A (Fig 2D and 2E) and after choosing correctly object D in context 2 (Fig 2F). We used t-tests to compare whether subjects inferred the correct swapped order in context 2 after choosing object D at the second ordinal position (choosing C), or whether they confused the sequential ordering in context 2 with the order from context 1 (and incorrectly chose E). To account for potential unequal variances in choice probability, we employed Welch’s t test. We used Bonferroni correction for correcting p-values for multiple comparisons or we used Benjamini–Hochberg FDR correction when this is explicitly stated.


Analysis of individual re-ordering responses using Bayesian estimation.

我们使用贝叶斯框架来量化每个参与者在上下文 2 中对象 B、C、D、E 和干扰对象在第二个序数位置的选择分布的不确定性。这种方法量化了感兴趣参数的完整后验分布,而不是单独的点估计。贝叶斯框架还允许随着数据的积累来表达和更新我们对选择倾向的先前信念。我们将每个受试者在会话中对象选择的聚合计数建模为由概率向量 θ = (θB、 θC、 θD、 θE、 θ干扰器).对 θ 的每个分量施加初始值为 α = 2 和 β = 5 的 Beta 先验分布,将选择概率限制为 0-1。θ 的联合后验将每个主体 k: 中观察 y 的多项式似然分布与 Beta 先验的乘积相结合:似然是根据上下文 2 中每个对象在第二个顺序位置(选择对象 A 之后)的选择概率估计的,发生在达到学习标准(80% 完成率)之前。为了近似后验分布,我们实现了一个 Metropolis-Hastings 马尔可夫链蒙特卡洛 (MCMC) 采样器。每条链都以最大似然估计值初始化,并迭代 200,000 次 θ 绘制,丢弃前 100,000 次作为老化。提案是通过步长为 0.05 的高斯随机游走生成的。为了评估我们的蒙特卡洛马尔可夫链 (MCMC) 程序的收敛性,我们检查了参数估计的运行均值和 Gelman-Rubin 诊断(S6 图)。θ 参数在迭代中的运行平均值最初波动,但在每个受试者大约 100,000 次迭代后趋于稳定(S6A 图)。我们从分散的起点启动的多个平行链计算了 Gelman-Rubin 收敛诊断 (R̂)。所有关键参数的结果值都接近 1.0(R̂ < 1.05),远低于被认为是令人满意的收敛阈值 1.1(S6B 图)[45–48]。


分析学习熟练度和任务经验对交换行为的影响。

我们量化了执行序列的熟练程度(情景 1 中的平均完成率)如何影响情景 2 中主动交换行为的可能性。我们使用 Welch t 检验和 Benjamini-Hochberg 错误发现率 (FDR) 校正来比较在上下文 2 中为低完成率与高完成率执行的序列错误显示的可能性编制的值。我们还使用线性回归逐序列关联这些值,并使用跨会话性能的线性回归来辨别体验在实验过程中的影响。


内存对交换的影响分析。

为了量化记忆对序列学习的影响,我们测试了在会话后期重复的序列是否比在会话后期执行的新序列表现得更好(图 5)。使用配对 t 检验,我们比较了在学习标准 (≥80% 完成率) 下显示较早 ('新的早期') 或在会话后期重复 ('重复') 的序列执行的速度。我们还纳入了在会议后期呈现的新序列对(“新晚”),或在会议后期新引入的序列对(“新晚”)。接下来,我们分析了内存如何影响主动交换和追溯主动交换行为。我们计算了两个度量:一个值,索引受试者在上下文 2 中在第二个序数位置选择对象 C 而不是对象 D 的可能性(不正确的序列推断),定义为:;我们计算了一个值,该值索引了在上下文 2 中第二个序数位置选择对象 D 的可能性,反映了主动交换:。使用 T 检验来量化这些重复序列对与新/晚新序列对中这些策略的差异。


Analysis of the relation of working memory and sequence learning.

The delayed match-to-sample task presented a sample stimulus, followed by a blank delay lasting 0.5, 1.25, or 1.75 s, followed by the presentation of three objects (2 distractors and 1 target object matching the sample stimulus) (Fig 6). The distractor stimuli were either similar or dissimilar to the target stimulus, because they shared, or did not share, features with the target object. We analyzed the overall accuracy for low/high similarity and across delays. Linear regression analysis showed no decline across delays so that we averaged the accuracy across conditions for individual sessions and each monkey (S4 Fig). To analyze the relationship of working memory, sequence learning and the ability to anticipate the swapped object order in context 2, we applied individual linear regression, and a linear mixed model fit to the performance across sessions.


Analysis of context repetition on sequence learning.

In a subset of sequence pairs shown late in the session, we repeated the object sequences from early in the session but on a different background context. To test how the difference of contexts versus the similarity of contexts affected performance and the likelihood to observe pro-active swapping behavior in context 2 we determined the difference in accuracy between early and late (repeated) sequences with the same and different contexts (Fig 6D–6F). Paired t-tests were used to compare the accuracy between conditions.


Analysis of choices of the distractor.

对于每个 5 个对象序列,该任务呈现第六个分散注意力的对象,该对象与序列无关,并与对象 B 共享三个特征。我们测试了干扰对象是否更有可能在与序列的对象 B 共享特征的序数位置而不是在其他序数位置被选择。我们使用比例 Z 检验测试了上下文 1 和 2 中干扰物选择比例的差异(S5 图 )。


支持信息

Overall learning performance.


Showing 1/8: pbio.3003255.s001.docx


Skip to figshare navigation

Sorry we could not load your data.

1 / 8



Download

figshare

S1 图 整体学习表现。

(A) 在上下文 1 中,为新序列的每个序数位置(y 轴)和四个主题中的每一个主题(x 轴)选择正确的选择。(B) 在试验中,每个序数位置(不同颜色)达到 80% 正确选择(y 轴)的概率(符号标记不同的受试者)。(C) 受试者在每个顺序位置(差异颜色)的 >80% 的序列(y 轴)中完成的平均试验位置。误差线表示平均值和 95% CI。顺序位置 1:1.03 次试验 (±0.03),2:1.27 (±0.09),3:1.85 (±0.19),4:2.62 (±0.32) 和 5:3.66 (±0.43)。(D) 探索错误、干扰项错误(选择在显示中显示为与序列无关的第六个对象的干扰项对象)和违规错误在试验中减少。数据用指数衰减函数 进行拟合。(E) 每种错误类型的衰减因子 (b) 的平均值(和 95% 置信区间):勘探误差 (0.14 [0.12, 0.17])、规则破坏误差 (0.0041 [0.0025, 0.0058])、干扰项误差 (0.15 [0.12, 0.19]) 和持续误差 (0.022 [0.014, 0.029])。探测和干扰误差具有相似的衰减率 (p = 0.66)。星号表示成对比较的显著性水平(Welch 的 t 检验)。所有错误类型的衰减因子都显著大于零,证实了在学习过程中所有错误类型的减少(t 检验为零,p 值:探索误差:6.6 × 10−18;违规错误:5.4 × 10−6;显示ractor错误:7.3 × 10−16;持续误差:4.3 × 10−8).此图的基础数据可以在 S1 数据文件中找到。


https://doi.org/10.1371/journal.pbio.3003255.s001


(DOCX)


S2 Fig. Accuracy and reaction times to objects across ordinal positions in context 1 and 2.

(A) 在上下文 2(黄色)中,受试者较早达到 80% 的完成率。(B) 在情景 1 和 2 中达到 80% 完成率(学习速度)的试验。(C) 学习点前后正确触球的平均反应时间。学习点前,顺序位置 1-5 分别为 (平均值 ± 95%CI):0.84 ± 0.06、1.14 ± 0.06、0.57 ± 0.04、0.59 ± 0.04、0.62 ± 0.04;学习后分数:0.66 ± 0.04、0.76 ± 0.05、0.72 ± 0.05、0.94 ± 0.06、0.86 ± 0.05。将 Welch 的 t 检验应用于每个序数位置,在第一个和最后一个序数位置发现显著差异(位置 1:p < 0.00001,位置 2:p = 0.5520,位置 3:p = 0.2550,位置 4:p = 0.3416,位置 5:p = 0.0384)。(D) 每个受试者在交换前(蓝色)和交换后(黄色)正确触摸的平均反应时间。在所有有序位置均未发现显著差异。此图的基础数据可以在 S1 数据文件中找到。


https://doi.org/10.1371/journal.pbio.3003255.s002


(DOCX)


S3 图 序列的记忆提高了性能。

(A) 在工作记忆任务后重复的序列(此处:仅上下文 1 序列)执行得更好。在新的早期条件下,在 3.93 ± 0.50 次试验后达到 80% 的完成率(平均值± 95%CI),而在重复条件下,仅 2.13 ± 0.32 次试验(新的早期与重复:p:1.19 × 10−8).对于较晚引入的新上下文 1 序列(为了控制“会话中的时间”),达到 80% 标准的平均试验值为 2.87 ± 0.38,这表明虽然在后面的序列中新序列的性能有所提高,但观察到重复序列的增益最为显著(新早期与新晚期: P: 0.0014;重复与新延迟:p:0.0052)。(B) 计算每个序数位置正确选择的选择反应时间,以检查在三个条件下是否存在任何差异 (New early : 0.79 ± 0.04;重复:0.81 ± 0.04;新晚数:0.77 ± 0.031)。我们发现,与新的晚期区组相比,重复区组的反应时间略慢 (p: 0.039),但其他比较没有显著性 (新的早期与重复区组: p: 0.33;新早与新晚:p:0.35)。此图的基础数据可以在 S1 数据文件中找到。


https://doi.org/10.1371/journal.pbio.3003255.s003


(DOCX)


S4 图 Working memory (delayed match-to-sample) 性能。

(A) 不同对象特征相似性和延迟时间的任务性能。对象在两个特征维度中共享特征 (高相似度) 或不共享任何维度的特征 (低相似度)。Chance 性能设置为 0.33。与高相似性条件相比,低相似性条件的准确率显著更高。高相似性条件:截距:0.4606;斜率: 0.0097;p = 0.6670;低相似性条件:截距:0.7172;斜率:−0.0175;p = 0.3772。所有条件下的总体平均准确度为 0.59 ± 0.16 (平均值 ± 95% CI),明显高于机会 (0.33)。对于 0.50 s 延迟条件,性能分别为 0.47 ± 0.12(高相似度)和 0.71 ± 0.22(低相似度);对于 1.25 s 延迟条件,分别为 0.46 ± 0.12(高相似度)和 0.70 ± 0.19(低相似度);对于 1.75 秒延迟条件,0.48 ± 0.14(高相似度)和 0.68 ± 0.18(低相似度)。(B) 所有相似性和延迟时间条件下的个体受试者表现。受试者水平的数据保持一致,无论延迟时间如何,在高相似性和低相似性条件之间观察到相似的模式。此图的基础数据可以在 S1 数据文件中找到。


https://doi.org/10.1371/journal.pbio.3003255.s004


(DOCX)


S5 Fig. Learning to ignore distractor object.

(A) Proportion of distractor choices across trials in context 1 (left panel) and context 2 (right panel). The mean value is shown as the rightmost data point (Mean ± 95% CI, Before swap: 0.090 ± 0.010; After swap: 0.061 ± 0.006). (B) Same format as A for distractor choices in sequences early (left) and late (right) in the session. The average is shown as rightmost data point (Mean ± 95% CI, Initial encounter: 0.076 ± 0.008; Repetition: 0.046 ± 0.004). (C) Distractor choices at each ordinal position in context 1 (distractor is similar to B at the second ordinal position) and in context 2 (distractor is similar to B at the fourth ordinal position). Two-proportion Z-tests were applied at each ordinal position for comparing the difference. Stars denote sign. level. (Ordinal Position: Before and After Swap, Mean ± 95% CI) 1: 0.13 ± 0.01; 1: 0.08 ± 0.01; 2: 0.29 ± 0.01; 2: 0.20 ± 0.01; 3: 0.19 ± 0.01; 3: 0.22 ± 0.01; 4: 0.22 ± 0.01; 4: 0.34 ± 0.01; 5: 0.17 ± 0.01; 5: 0.16 ± 0.01. The data underlying this figure can be found in the S1 Data file.


https://doi.org/10.1371/journal.pbio.3003255.s005


(DOCX)


S6 Fig. Convergence diagnostics of Metropolis–Hastings Markov chain Monte Carlo (MCMC) sampling.

(A) Running means of posterior theta over iterations for each subject and each object. All values stable after burn-in. (B) Gelman–Rubin diagnostics for each subject and each object. All values are less than 1.1 representing good convergence. The data underlying this figure can be found in the S1 Data file.


https://doi.org/10.1371/journal.pbio.3003255.s006


(DOCX)


S1 电影。 上下文相关对象序列学习任务的执行示例。

非人灵长类动物(恒河猴)执行 5 对象序列学习任务的试验,并在上下文从上下文 1 更改为上下文 2 时调整交换的对象顺序。显示屏的左侧说明了正确的顺序(左上)和实验者可见的显示屏,该显示屏反映了屏幕的主要事件(左下)。视觉显示和任务由 M-USE 软件平台 [41] 控制。右侧的显示屏显示了当受试者与触摸屏站互动时动物笼内的后视图。触摸屏站安装在一个公寓笼式隔间上。受试者每个工作日可以免费使用 Kiosk 触摸屏站(在 [27] 中描述)大约 90-120 分钟来参与任务。受试者将手和嘴靠近不锈钢吸管,一旦完成 5 个对象的序列,该吸管就会提供液体奖励。屏幕顶部进度条的滑块位置在每个正确选择时向前移动,在错误后向后移动。这部电影分为两部分。第一部分显示了在受试者达到学习标准后序列的受试者 'NHP-K' 的示例表现(在 >80% 的试验中完成序列)。然后,在上下文 2 中显示交换序列的性能(蓝色上下文 1 背景切换到绿色上下文 2 背景)。电影的第二部分(从大约 1:08 分钟开始)显示了主题“NHP-J”在上下文 1 和上下文 2 序列中的示例表演。此图的基础数据可以在 S1 数据文件中找到。


https://doi.org/10.1371/journal.pbio.3003255.s007


(MP4 格式)


S1 数据。 源数据文件,其中包含每个图窗面板的基础数据。

https://doi.org/10.1371/journal.pbio.3003255.s008


(XLSX)


引用

1.Davis H, Pérusse R. 动物的数字能力:定义问题、当前证据和新的研究议程。行为脑科学 1988;11(4):561–79.

查看文章谷歌学术

2.麦克纳梅 DC, 斯塔亨菲尔德 KL, 博特维尼克 MM, 格什曼 SJ.内嗅 - 海马系统中序列生成的灵活调节。国家神经科学。2021;24(6):851–62.PMID:33846626。

查看文章PubMed/NCBI谷歌学术

3.帕辛汉 RE.了解前额叶皮层:选择性优势、连接性和神经作。牛津大学出版社;2021.

4.德海恩 S.我们如何学习:为什么大脑比任何机器都学习得更好。就目前而言。企鹅;2021.

5.Dehaene S, Meyniel F, Wacongne C, Wang L, Pallier C.序列的神经表示:从转换概率到代数模式和语言树。神经元。2015;88(1):2–19.PMID:26447569。

查看文章PubMed/NCBI谷歌学术

6.帕辛汉 RE, Lau H.我们了解前额叶皮层吗?Brain Struct Funct.2023;228(5):1095–105.PMID:36344701。

查看文章PubMed/NCBI谷歌学术

7.惠廷顿 JCR、McCaffary D、贝克曼斯 JJW、贝伦斯 TEJ。如何构建认知地图。国家神经科学。2022;25(10):1257–72.PMID:36163284.

查看文章PubMed/NCBI谷歌学术

8.Leroux M、Schel AM、Wilke C、Chandia B、Zuberbühler K、Slocombe KE 等人。野生黑猩猩的呼叫组合和组合加工。Nat Commun.2023;14(1):2225.PMID:37142584。

查看文章PubMed/NCBI谷歌学术

9.露台 HS。同步链:串行学习的新方法。趋势 Cogn Sci. 2005;9(4):202–10.PMID:15808503。

查看文章PubMed/NCBI谷歌学术

10.康威 CM,克里斯蒂安森 MH。非人类灵长类动物的顺序学习。Trends Cogn Sci. 2001 年;5(12):539–46.PMID:11728912。

查看文章PubMed/NCBI谷歌学术

11.Chen S, Swartz KB, Terrace HS.了解 Rh 猴中列表项的序号位置。心理学科学 1997;8(2):80–6.pmid:WOS:A1997WT26000003.

查看文章PubMed/NCBI谷歌学术

12.Orlov T, Yakovlev V, Hochstein S, Zohary E. 猕猴按序数对图像进行分类。自然界。2000;404(6773):77–80.PMID:10716445。

查看文章PubMed/NCBI谷歌学术

13.D'Amato MR, Colombo M. 猴子 (Cebus apella) 使用外卡项目的系列学习:对序数位置知识的影响。J Comp Psychol. 1989 年;103(3):252–61.PMID:2776421。

查看文章PubMed/NCBI谷歌学术

14.D'Amato MR, 科伦坡 M.猴子 (Cebus apella) 的象征性距离效应。Anim Learn Behav.1990;18(2):133–40.pmid:WOS:A1990DE47100003.

查看文章PubMed/NCBI谷歌学术

15.Jensen G、Alkan Y、Ferrera 副总裁、Terrace HS。奖励关联并不能解释猴子的传递推理性能。科学广告 2019;5(7):eaaw2089。PMID:32128384。

查看文章PubMed/NCBI谷歌学术

16.Jensen G,Ferrera 副总裁,Terrace HS。恒河猴的位置推断。Anim Cogn. 2022 年;25(1):73–93.PMID:34302565。

查看文章PubMed/NCBI谷歌学术

17.Ferhat A-T、Jensen G、Terrace HS、Ferrera 副总裁。基于规则和奖励的策略对猴子序列顺序推断的影响。J Cogn 神经科学。2022;34(4):592–604.PMID:35061028。

查看文章PubMed/NCBI谷歌学术

18.Mione V, Brunamonti E, Pani P, Genovesio A, Ferraina S. 背侧运动前皮层神经元在逻辑决策过程中发出选择难度的信号。Cell Rep. 2020 年;32(4):107961.PMID:32726625。

查看文章PubMed/NCBI谷歌学术

19.围巾 D、丹利 E、摩根 G、科伦坡 M、露台 HS。恒河猴 (Macaca mulatta) 的顺序计划。Anim Cogn. 2011 年;14(3):317–24.PMID:21184125。

查看文章PubMed/NCBI谷歌学术

20.Matsuzawa T. 黑猩猩对数字的使用。自然界。1985;315(6014):57–9.PMID:3990808。

查看文章PubMed/NCBI谷歌学术

21.Tian Z, Chen J, Zhang C, Min B, Xu B, Wang L. 猕猴额叶皮层工作记忆中空间序列的心理编程。科学。2024;385(6716):EADP6091。PMID:39325894.

查看文章PubMed/NCBI谷歌学术

22.谢燕, 胡 P, 李 J, 陈 J, 宋 W, 王 X-J, 等.猕猴前额叶皮层中序列工作记忆的几何学。科学。2022;375(6581):632–9.PMID:35143322。

查看文章PubMed/NCBI谷歌学术

23.张 H, 甄 Y, 于 S, 龙 T, 张 B, 江 X, 等.空间序列的工作记忆:编码序数和关系结构的发育和进化因素。神经科学杂志。2022;42(5):850–64.PMID:34862186。

查看文章PubMed/NCBI谷歌学术

24.Kao T、Jensen G、Michaelcheck C、Ferrera VP、Terrace HS。隐含列表上序数位置的绝对和相对知识。J Exp Psychol Learn Mem Cogn. 2020;46(12):2227–43.PMID:31750719。

查看文章PubMed/NCBI谷歌学术

25.Behrens TEJ、Muller TH、Whittington JCR、Mark S、Baram AB、Stachenfeld KL 等人。什么是认知地图?组织知识以实现灵活的行为。神经元。2018;100(2):490–509.PMID:30359611.

查看文章PubMed/NCBI谷歌学术

26.惠廷顿 JCR、Dorrell W、Behrens TEJ、Ganguli S、El-Gaby M。两种算法的故事:结构化插槽解释前额叶序列记忆,并与海马认知图统一。神经元。2025;113(2):321-333.e6.PMID:39577417。

查看文章PubMed/NCBI谷歌学术

27.Womelsdorf T、Thomas C、Neumann A、Watson MR、Banaie Boroujeni K、Hassani SA 等人。用于评估猴子的多个认知领域和认知丰富的 Kiosk 站。Front Behav Neurosci.2021;15:721069.PMID:34512289。

查看文章PubMed/NCBI谷歌学术

28.温 X, 马尔钦 L, 沃梅尔斯多夫 T.用于生成具有精细控制特征空间的多维 3-D 对象的工具箱:Quaddle 2.0。生物Rxiv。2024;2024.12.19.629479.PMID:39763807。

查看文章PubMed/NCBI谷歌学术

29.Colombo M, Eickhoff AE, 总 CG。额下颞部和背外侧病变对猴子序列顺序行为和视觉意象的影响。Brain Res Cogn Brain Res. 1993 年;1(4):211–7.PMID:8003919。

查看文章PubMed/NCBI谷歌学术

30.Rueckemann JW、Sosa M、Giocomo LM、布法罗 EA。有序体验的网格代码。Nat Rev 神经科学。2021;22(10):637–49.PMID:34453151。

查看文章PubMed/NCBI谷歌学术

31.Templer VL, Gazes RP, 汉普顿 RR.恒河猴 (Macaca mulatta) 同时链接的长期记忆和工作记忆表征的合作。Q J Exp Psychol (霍夫)。2019;72(9):2208–24.PMID:30827186。

查看文章PubMed/NCBI谷歌学术

32.黑猩猩 (Pan troglodytes) 和恒河猴 (Macaca mulatta) 的顺序响应和规划。J Exp Psychol Anim Behav Process.2004;30(3):203–12.PMID:15279511。

查看文章PubMed/NCBI谷歌学术

33.Inoue S, Matsuzawa T. 年轻和成年黑猩猩 (Pan troglodytes) 序列顺序的获取和记忆。Anim Cogn. 2009 年;12 增刊 1:S59-69。PMID:19672636。

查看文章PubMed/NCBI谷歌学术

34.凝视 RP、Chee NW、Hampton RR。恒河猴传递推理性能的认知机制:测量联想强度和推断顺序的影响。J Exp Psychol Anim Behav Process.2012;38(4):331–45.PMID:23066978。

查看文章PubMed/NCBI谷歌学术

35.Treichler FR,Raghanti MA。猴子 (Macaca mulatta) 的序列列表组合:测试提示和链接。Anim Cogn. 2010 年;13(1):121–31.PMID:19533183。

查看文章PubMed/NCBI谷歌学术

36.詹森 G、穆尼奥斯 F、梅尼 A、特雷斯 HS、费雷拉副总裁。恒河猴 (Macaca mulatta) 经过最少训练后的传递推理。J Exp Psychol Anim Learn Cogn. 2021;47(4):464–75.PMID:34855434。

查看文章PubMed/NCBI谷歌学术

37.陈 J, 张 C, 胡 P, 敏 B, 王 L. 猕猴额叶皮层序列工作记忆的灵活控制.神经元。2024;112(20):3502-3514.e6.PMID:39178858。

查看文章PubMed/NCBI谷歌学术

38.Chen Y, Zhang H, Cameron M, Sejnowski T. 海马形成中的预测序列学习。神经元。2024;112(15):2645-2658.e4。PMID:38917804.

查看文章PubMed/NCBI谷歌学术

39.Shpektor A、Bakermans JJW、Baram AB、Sarnthein J、Ledergerber D、Imbach L 等人。人类内嗅皮层序列记忆的分层坐标系。生物Rxiv。2024.

查看文章谷歌学术

40.Averbeck BB, Lee D. 序列记忆的前额叶神经相关性。神经科学杂志。2007;27(9):2204–11.PMID:17329417。

查看文章PubMed/NCBI谷歌学术

41.Watson MR, Traczewski N, Dunghana S, Boroujeni KB, Neumann A, 温 X 等人.一个多任务平台,用于分析人类和非人类灵长类动物的认知和动机结构。生物Rxiv。2023. PMID:38014107。

查看文章PubMed/NCBI谷歌学术

42.Watson MR、Voloh B、Naghizadeh M、Womelsdorf T. Quaddles:具有参数控制和可自定义特征的多维 3-D 对象集。Behav Res Methods.2019;51(6):2522–32.PMID:30088255。

查看文章PubMed/NCBI谷歌学术

43.Boroujeni KB, Watson M, Womelsdorf T. 在低注意力负荷和高注意力负荷下,收益和损失对学习的影响不同。J Cogn 神经科学。2022;34(10):1952–71.PMID:35802604。

查看文章PubMed/NCBI谷歌学术

44.唐 H, 巴托洛 R, 阿维尔贝克 BB.腹侧额纹状体回路介导从象征性收益和损失中计算强化。神经元。2024;112(22):3782-3795.e5。PMID:39321792。

查看文章PubMed/NCBI谷歌学术

45.Alter U, Too MA, Cribbie RA.浏览贝叶斯迷宫:贝叶斯统计心理学家指南,使用 R 代码的动手教程。国际心理学杂志 2025;60(1):e13271。PMID:39701603。

查看文章PubMed/NCBI谷歌学术

46.Gerber M, Heine K. 使用多模态似然函数进行在线推理。安·斯塔蒂斯特。2021;49(6).pmid:WOS:000730645000003.

查看文章PubMed/NCBI谷歌学术

47.克鲁施克 JK.执行贝叶斯数据分析:使用 R、JAGS 和 Stan 的教程。学术出版社;2005.

48.Kuss M, Jäkel F, Wichmann FA. 心理测量函数的贝叶斯推理。J Vis. 2005 年;5(5):478–92.PMID:16097878。

查看文章PubMed/NCBI谷歌学术


阅读0
分享
写下您的评论吧