论文概要

arXiv: 2604.08537 | CVPR 2026 接收 | 跨学科:cs.LG × q-bio.NC

核心问题:跨被试脑信号解码长期面临个体差异障碍,传统方法需要为每个被试单独训练或微调模型。

解决方案:通过上下文元学习(in-context learning)实现完全免微调的跨被试、跨扫描仪泛化。


方法亮点

1. 层级推理解码框架

模型采用两层层级推理策略:

  1. 单Voxel层级:对每个体素的视觉响应编码器参数进行估计,方法是对多个刺激-响应样本构建上下文(context)
  2. 多Voxel聚合层级:将编码器参数和响应值组成上下文,执行聚合功能反转(aggregated functional inversion)

2. 免微调的跨被试泛化

关键技术优势:

  • 只需少量图像-脑激活样本作为上下文
  • 无需解剖对齐(anatomical alignment)
  • 无需刺激重叠(stimulus overlap)
  • 可跨扫描仪泛化

3. 无需训练的特征工程

与量子认知机器(XQCM)研究中的思路有异曲同工之妙——将量子动力学作为特征工程工具而非认知模型本身。本文同样将神经编码模型的层级结构作为解码的通用特征提取器,而非为每个被试单独学习认知模型。


关键发现

指标 结果
跨被试泛化 无需任何微调
跨扫描仪泛化 跨不同扫描设备
解码视觉 backbone 兼容多种视觉模型
刺激要求 无需解剖对齐或刺激重叠

科学意义

基础模型范式:本文是迈向通用脑解码基础模型(generalizable foundation model for non-invasive brain decoding)的关键一步。

跨学科启示:最大异质性原则(Principle of Maximum Heterogeneity)认为,任何追求性能的分布式生产系统都会趋向于越来越异质的配置。本文的被试自适应解码策略正是这一原则的神经科学实例——每个被试的神经表征都是独特的编码配置,上下文元学习使模型能够动态适应这种异质性。


延伸阅读

留言