跨被试脑解码的上下文元学习:无需微调的通用视觉解码
论文概要
arXiv: 2604.08537 | CVPR 2026 接收 | 跨学科:cs.LG × q-bio.NC
核心问题:跨被试脑信号解码长期面临个体差异障碍,传统方法需要为每个被试单独训练或微调模型。
解决方案:通过上下文元学习(in-context learning)实现完全免微调的跨被试、跨扫描仪泛化。
方法亮点
1. 层级推理解码框架
模型采用两层层级推理策略:
- 单Voxel层级:对每个体素的视觉响应编码器参数进行估计,方法是对多个刺激-响应样本构建上下文(context)
- 多Voxel聚合层级:将编码器参数和响应值组成上下文,执行聚合功能反转(aggregated functional inversion)
2. 免微调的跨被试泛化
关键技术优势:
- 只需少量图像-脑激活样本作为上下文
- 无需解剖对齐(anatomical alignment)
- 无需刺激重叠(stimulus overlap)
- 可跨扫描仪泛化
3. 无需训练的特征工程
与量子认知机器(XQCM)研究中的思路有异曲同工之妙——将量子动力学作为特征工程工具而非认知模型本身。本文同样将神经编码模型的层级结构作为解码的通用特征提取器,而非为每个被试单独学习认知模型。
关键发现
| 指标 | 结果 |
|---|---|
| 跨被试泛化 | 无需任何微调 |
| 跨扫描仪泛化 | 跨不同扫描设备 |
| 解码视觉 backbone | 兼容多种视觉模型 |
| 刺激要求 | 无需解剖对齐或刺激重叠 |
科学意义
基础模型范式:本文是迈向通用脑解码基础模型(generalizable foundation model for non-invasive brain decoding)的关键一步。
跨学科启示:最大异质性原则(Principle of Maximum Heterogeneity)认为,任何追求性能的分布式生产系统都会趋向于越来越异质的配置。本文的被试自适应解码策略正是这一原则的神经科学实例——每个被试的神经表征都是独特的编码配置,上下文元学习使模型能够动态适应这种异质性。
延伸阅读
- 原论文:arXiv:2604.08537
- 相关研究:量子认知与语境性 · 极值量子认知机器