ICLR 2026|PMDformer:尺度是否正在「偷偷绑架」注意力?一个简单减法实现长时序预测注意力机制纠偏


西南财经大学在读硕士、上智院实习生胡澳,是本文第一作者,其主要研究方向为多变量长时序预测; 西南财经大学教授、成都恒图科技创始人段江 ,为共同第一作者。西南财经大学副教授温良剑,上智院 AI 科学家、复旦大学教授徐增林,为本文通讯作者。

长期时间序列预测(Long-term Time Series Forecasting, LTSF)是能源管理、金融市场和交通预测等领域的核心任务。现有基于 Patch 的 Transformer 模型面临一个根本性挑战: 非平稳时序数据中,Patch 之间的尺度差异会严重干扰注意力机制对形状相似性的捕捉,导致模型学习到错误的相关关系,预测精度受限。

为此, 西南财经大学、上海科学智能研究院(下称上智院)、复旦大学、成都恒图科技等机构最新联合提出 PMDformer —— 一种基于 Patch 均值解耦(PMD)的创新时序预测框架。 通过三大核心模块的协同设计,它在多项权威基准上全面超越现有最优方法。

  • 论文地址:https://openreview.net/forum?id=rfJ41gK9Ct

  • 代码地址:https://github.com/aohu1105/PMDformer

目前,该成果已被 ICLR 2026 接收。

现有方法的痛点:尺度差异如何「扭曲」形状建模?

长期时序预测中,研究者常用 Patch 分割策略来捕捉长序列中的局部语义,但时序数据的非平稳性带来显著挑战 —— 同一序列在不同时段的数值尺度差异悬殊。这一特性带来了两个关键问题:

  • 尺度偏差遮蔽形状相似性: 注意力权重受 Patch 均值影响,导致形状相似但尺度不同的 Patch 被错误地判为不相关,而形状迥异的 Patch 反而获得高注意力权重。模型捕捉到的并非真正的模式,而是由尺度「幻觉」造成的误导。如论文图 1 所示,P1 与 P2 形状高度相似,但在解耦前,P1 与 P3 的注意力权重反而更高。

  • 跨变量依赖建模失准: 变量间的相关性随时间演变,历史早期的相关关系对预测近期走势的参考价值有限,但现有模型通常在全局历史窗口上计算变量交互,引入大量噪声,容易过拟合。

图 1:PMD 解耦前后的注意力权重对比。上:原始序列中,尺度差异导致注意力偏向 P3;下:均值解耦后,注意力正确反映形状相似性

PMDformer:三位一体的解决方案

PMDformer 由三个协同工作的核心模块组成,分别解决上述不同层面的问题,形成完整的技术闭环。

图 2:PMDformer 整体架构图图 2:PMDformer 整体架构图

一、Patch 均值解耦(PMD):还原形状本质

PMD 的核心操作简洁而高效: 对每个 Patch 减去其时间均值,将原始 Patch 分解为长期趋势(均值)和残差形状两部分。与现有 Normalization 方法不同,PMD 仅做均值减法,完整保留了 Patch 内部的振幅变化和形状结构。

二、近邻变量注意力(PVA):聚焦最相关的跨变量依赖

PVA 模块基于一个直觉洞察: 预测目标序列时,变量间在最近时间段的交互关系最具参考价值。因此,PVA 将跨变量的自注意力计算严格限制在最近一个 Patch(第 N 个 Patch)的时序词元(Tokens)上,而非全局历史序列。

这一设计带来双重优势:

  • 一是捕捉最相关的近期跨变量形状相似性, 避免早期弱相关或虚假相关对预测的干扰;

  • 二是将计算复杂度从 O (C²N) 降低至 O (C²), 显著提升计算效率。

三、趋势恢复注意力(TRA):兼顾形状与趋势

PMD 在提升形状相似性建模的同时,客观上削弱了长期趋势信号。TRA 模块专门针对此问题设计:在注意力计算中,Query/Key 通道仅使用形状嵌入(确保注意力分数反映形状相似性),而 Value 通道则通过加法注入 PMD 分离出的 Patch 均值(趋势信息)。

这种分离式设计使模型能够同时编码局部形状模式和全局趋势动态,输出更稳定的预测结果。

实验结果:在 8 个权威基准上全面领先

研究团队在 8 个广泛使用的真实世界数据集上进行了系统评估,涵盖电力、天气、能源、交通等多个应用领域。与 8 个最新基线方法的比较表明,PMDformer 在 7/8 个数据集上取得最低 MSE 和 MAE,展现出稳定且全面的性能优势。

表 1:长时间序列预测任务结果对比。包含 8 个数据集、4 个预测长度(96/192/336/720 步)、MSE 与 MAE 双指标的完整对比数据

计算效率:以更少资源实现更高性能

PMDformer 在计算效率方面同样表现突出。在变量数量从 100 增至 3000、以及序列长度从 144 增至 5400 的两组扩展实验中,PMDformer 相比 PatchTST、iTransformer、ModernTCN 均需要更少的 GPU 显存。这一优势源于 PVA 模块将跨变量注意力复杂度从 O (C²N) 压缩至 O (C²),在高维多变量场景下尤为显著。

图 3:计算效率对比:不同变量数量(左)与不同序列长度(右)下,各模型 GPU 显存占用对比图 3:计算效率对比:不同变量数量(左)与不同序列长度(右)下,各模型 GPU 显存占用对比

总结与展望

PMDformer 的成功揭示了时序预测领域一个长期被忽视但至关重要的问题: Patch 的均值(趋势)与残差(形状)耦合在一起,会系统性地损害注意力机制对形状相似性的建模能力。

通过一个简洁的均值减法操作,配合精心设计的趋势恢复机制和近邻变量注意力, PMDformer 在不增加模型复杂度的前提下,全面提升了预测精度与计算效率。

接下来,研究团队计划将 PMDformer 扩展至更高维度的多变量时序数据建模,并探索与多模态数据(如文本、图像)的融合应用,为能源、金融、交通等领域的智能预测持续提供新动力。

]article_adlist–>

            <!-- 非定向300*250按钮    17/09  wenjing  begin -->
            <!-- 非定向300*250按钮  end -->
        </div>



Source link

未经允许不得转载:紫竹林-程序员中文网 » ICLR 2026|PMDformer:尺度是否正在「偷偷绑架」注意力?一个简单减法实现长时序预测注意力机制纠偏
关于我们 免责申明 意见反馈 隐私政策
程序员中文网:公益在线网站,帮助学习者快速成长!
关注微信 技术交流
推荐文章
每天精选资源文章推送
推荐文章
随时随地碎片化学习
推荐文章
发现有趣的