mamba-transformer

Ikko Lv4

什么是特征融合?

特征融合 是一种将来自多个源头或多种表示的特征信息组合成一个统一、更具信息量、更鲁棒的特征表示的过程,目的是为了提高机器学习模型的性能(如准确性、稳定性)。

这里的“多个源头”可以指:

  • **多模态数据 (Multimodal Data)**:来自不同类型传感器或数据源的信息。这是最经典的应用场景。
    • 例子:自动驾驶中,融合摄像头(视觉图像)、激光雷达 LiDAR(3D点云)和毫米波雷达 RADAR(速度信息)的特征,来更精确地识别障碍物。
  • 不同网络层的特征: 在深度学习中,一个模型的不同层级会学到不同抽象程度的特征。
    • 例子:浅层网络学习到边缘、颜色等细节特征,深层网络学习到轮廓、形状等高级语义特征。将它们融合可以兼顾细节和整体。
  • 不同模型的特征: 用多个不同的模型处理同一个数据,然后融合它们的特征。
    • 例子:用一个模型专注于提取纹理特征,另一个模型专注于提取形状特征,然后将两者融合。

为什么要进行特征融合?

核心目标是 “取长补短,强强联合”,从而获得比任何单一特征更好的效果。

  1. 信息互补:不同的特征源往往包含互补的信息。例如,摄像头在雨雾天效果会变差,但激光雷达受影响较小;激光雷达难以识别颜色(如红绿灯),而摄像头可以。融合两者就能在各种环境下都表现得更好。
  2. **提高鲁棒性 (Robustness)**:当某个数据源(或模态)出现噪声、损坏或丢失时,融合了其他来源信息的模型依然能够正常工作,不会因为“单点故障”而完全失效。
  3. **提升准确性 (Accuracy)**:融合后的特征维度更高、信息量更丰富,可以为模型的最终决策提供更全面的依据,从而做出更精确的判断。
  4. 增强特征表达能力:融合可以创造出新的、更有判别力的特征,这些特征在原始的单一特征空间中可能并不存在。

常见的特征融合方法

特征融合可以发生在模型处理流程的不同阶段,主要分为三类:

1. 早融合 (Early Fusion)

也叫数据级融合 (Data-level Fusion)。它在整个流程的最前端,直接将原始数据或最基础的特征拼接在一起。

  • 做法:将不同特征向量直接连接 (Concatenate) 成一个更长的向量,然后输入给后续的单一模型进行处理。
  • 比喻:把所有食材(视觉、听觉信息)一股脑全倒进一个锅里,然后开始烹饪。
  • 优点:简单直接,容易实现。
  • 缺点
    • 要求数据对齐严格(例如,图像的像素要和点云的点对应)。
    • 可能会因为某个特征维度过高而“淹没”其他特征。
    • 没有充分利用每个模态的独有特性。

2. 中间融合 (Intermediate Fusion)

也叫特征级融合 (Feature-level Fusion)。这是目前在深度学习中最主流、最灵活的方式。

  • 做法:为每种数据源设计一个独立的特征提取器(比如一个小的神经网络分支),将它们处理到一定深度、得到各自的高级特征后,再将这些高级特征进行融合。
  • 比喻:先把每种食材(牛肉、土豆)分别处理到半熟状态,提炼出各自的精华,然后再放到一起继续烹饪。
  • 常见融合操作
    • **拼接 (Concatenation)**:[特征A, 特征B]
    • **逐元素相加/相乘 (Element-wise Sum/Multiplication)**:特征A + 特征B
    • **注意力机制 (Attention Mechanism)**:通过学习权重,动态地决定在当前任务中,应该更“关注”哪个特征源。这是一种非常强大和流行的融合方式。

3. 晚融合 (Late Fusion)

也叫决策级融合 (Decision-level Fusion)。它在流程的最后端,直到每个模型都独立做出预测后,才融合它们的结果。

  • 做法:为每个特征源训练一个完整的独立模型,得到各自的预测结果(比如分类概率),然后通过投票、取平均值或再训练一个小型模型来综合这些预测,得出最终结论。
  • 比喻:请来三位专家(视觉专家、听觉专家、触觉专家),让他们分别给出自己的判断,然后您综合三位专家的意见,做出最后决定。
  • 优点:非常灵活,对数据对齐要求低,可以融合异构模型。
  • 缺点:没有在特征层面进行深入交互,可能无法发现模态间深层次的关联。

学术界通常如何进行这种融合?

学术论文中已经涌现出多种融合 Transformer 和 Mamba 的方法,主要可以归纳为以下几种结构:

1. 并行结构 (Parallel Structure)

这是最经典的中间融合方式。在模型的一个“块” (Block) 中,输入数据同时流经两个分支:

  • 一个分支是 Transformer 的多头自注意力 (Multi-head Self-Attention) 模块。
  • 另一个分支是 Mamba 模块。

两者分别提取特征后,通过拼接 (Concatenate)逐元素相加 (Element-wise Sum) 的方式将特征向量融合在一起,再送入后续层。

  • 优点:可以平等地、同时地捕捉两种不同类型的依赖关系。
  • 例子:很多名为 "MambaFormer""Vision Mamba" 的模型都采用了类似结构。

2. 串行结构 (Serial Structure)

将 Transformer 块和 Mamba 块串联起来堆叠。

  • Mamba -> Transformer:先用 Mamba 高效地处理长序列,对局部信息进行编码和压缩,然后将 Mamba 的输出作为 Transformer 的输入,让 Transformer 在一个更精炼的序列上进行全局关系建模。

  • Transformer -> Mamba:先用 Transformer 捕捉全局语义信息,然后让 Mamba 在这个富含全局信息的特征上进行序列化的细致处理。

  • 优点:可以形成一种“粗粒度到细粒度”或反之的处理流程。

3. 混合与交错结构 (Hybrid & Interleaved Structure)

不在每个块中都进行融合,而是在整个模型中交错地堆叠 Transformer 块和 Mamba 块。

  • 做法:比如,模型的前几层使用 Mamba 块来快速处理输入的长序列,中间几层使用 Transformer 块来深入理解语义关系,最后几层再用 Mamba 块进行整合。
  • 代表作:AI21 Labs 的 Jamba 模型就是一个著名的例子,它交错地放置 Transformer 和 Mamba 层,并结合了混合专家(MoE)技术。

杂交品种

TransMamba(《A Hybrid Model Based on Transformer and Mamba for Enhanced Sequence Modeling》):

  • 核心架构:结合Transformer编码器(全局特征提取)和Mamba解码器(局部顺序建模),通过特征融合机制整合全局上下文与局部依赖。

  • 关键创新

    • 动态切换机制:通过共享参数实现注意力机制(Transformer)和状态空间机制(Mamba)之间的动态切换,增强灵活性和适应性。
    • 上下文感知:融合机制捕捉局部和全局特征,提升序列建模质量。
    • 高效性:Mamba的线性复杂度(O(N))降低长序列计算开销,Transformer编码器保留高质量特征提取。
  • 优势

    • 高效处理长序列。
    • 提升复杂NLP任务性能,优于单独Transformer或Mamba。
    • 保留并行训练能力,适合大规模数据集。
  • 应用:长文本任务(翻译、摘要)、顺序敏感任务(生成、时间序列)。

  • 不足:融合机制复杂,缺乏具体性能数据,未深入探讨多模态应用。

  • 未来方向:优化特征融合,适配NAR、多模态任务,与SOTA模型比较。

Jamba(《Jamba: A Hybrid Transformer-Mamba Mixture-of-Experts Model》):

  • 核心架构:结合Transformer和Mamba,采用混合专家(MoE)架构,交替使用注意力层和Mamba层,通过专家选择机制动态分配计算。
  • 关键创新
    • MoE框架:通过稀疏激活的专家模块降低计算成本,平衡Transformer的全局建模与Mamba的线性复杂度。
    • 交替层设计:Transformer层处理全局依赖,Mamba层处理局部顺序,优化长序列性能。
    • 高效推理:通过专家路由和Mamba的低复杂度实现高吞吐量。
  • 优势
    • 在长序列任务中实现高吞吐量和低内存占用。
    • 性能接近纯Transformer模型,同时显著降低计算成本。
    • 适合资源受限环境(如边缘设备)。
  • 应用:长上下文问答、文档处理、实时翻译。
  • 与NAR关联:Mamba的线性复杂度可加速NAR生成,MoE框架可提升并行生成质量。
  • 不足:MoE训练复杂,专家路由可能导致不稳定,需大量数据优化。
  • 未来方向:简化MoE训练,增强NAR适配性,探索多模态扩展。

Hymba(《Hymba: A Hybrid-head Architecture for Small Language Models》):

  • 核心架构:在同一层并行整合Transformer注意力头和状态空间模型(SSM)头,通过混合头模块同时处理输入,结合可学习元标记(meta tokens)优化性能。

  • 关键创新

    • 混合头模块:注意力头提供高分辨率回忆,SSM头实现高效上下文总结, 并行处理提升灵活性。
    • 可学习元标记:前置于输入序列,存储关键信息,缓解注意力机制的“强制关注”问题,增强任务适配性。
    • KV缓存优化:通过跨层键值(KV)缓存共享和局部滑动窗口注意力,减少11.67倍缓存大小,提升3.49倍吞吐量。
  • 优势

    • 超越子2B参数模型,甚至优于Llama-3.2-3B(精度高1.32%)。
    • 内存效率高,适合资源受限设备。
    • 在常识推理、问答、回忆密集任务中表现优异。
  • 应用:常识推理、问答、实时NLP任务、边缘设备部署。

  • 不足:混合头设计增加模型复杂性,元标记效果需跨领域验证。

  • 未来方向:优化混合头融合,扩展到多模态任务,探索元标记的外部知识整合。

Mamba-2-Hybrid(《An Empirical Study of Mamba-based Language Models》):

  • 核心架构:结合Mamba-2(改进的SSM)和Transformer,交替堆叠注意力层和SSM层,优化长序列建模效率。

  • 关键创新

    • Mamba-2改进:通过结构化状态空间(Structured State Space Duality, SSD)增强SSM的表达能力,接近Transformer的性能。
    • 混合堆叠:Transformer层捕获全局依赖,Mamba-2层提供高效顺序处理,减少KV缓存需求。
    • 高效训练:利用Mamba-2的硬件友好性,加速大规模语言建模。
  • 优势

    • 比Transformer快,生成速度提升,内存需求低。
    • 在长序列任务中性能接近或超越Transformer。
    • 适合大规模语言建模任务。
  • 应用:长上下文语言建模、生成任务、时间序列预测。

  • 不足:混合堆叠可能引入层间不一致,需进一步优化。

  • 未来方向:改进层间融合,适配NAR生成,扩展到多语言任务。

非自回归(NAR)生成著名方法

NAT(《Non-Autoregressive Neural Machine Translation》):

  • 核心架构:基于Transformer架构,移除自回归解码,通过生育率预测器(Fertility Predictor)估计目标序列长度,一次性并行生成所有token。
  • 关键创新
    • 并行生成:完全非自回归解码,生成速度比自回归模型快15.6倍。
    • 知识蒸馏:利用自回归模型生成伪数据,简化目标序列依赖,提升NAR性能。
    • 生育率预测:预测每个源token对应的目标token数量,解决长度不一致问题。
  • 优势
    • 显著加速生成过程,适合实时翻译场景。
    • 简化训练数据依赖,提升模型鲁棒性。
  • 应用:机器翻译(WMT14/16)、文本生成。
  • 与NAR特性:奠定NAR生成基础,强调并行性,降低推理延迟。
  • 不足:BLEU分数较低(EN→DE仅17.69),对知识蒸馏依赖强,生成质量需改进。
  • 未来方向:减少对知识蒸馏的依赖,优化生育率预测,改进生成质量。

NAT-IR(《Non-Autoregressive Machine Translation with Iterative Refinement》):

  • 核心架构:在NAT基础上引入迭代精炼(Iterative Refinement),通过多次并行迭代优化初始生成的序列,结合Transformer架构。
  • 关键创新
    • 迭代精炼:通过多轮掩码与预测,逐步修正生成序列,提高质量。
    • 动态迭代次数:根据任务复杂性调整迭代次数,平衡速度与性能。
    • 结合知识蒸馏:利用AR模型的伪数据进一步提升精炼效果。
  • 优势
    • 显著提升BLEU分数(EN→DE达21.61,10次迭代)。
    • 保留NAR的高效性,同时接近AR模型的生成质量。
  • 应用:机器翻译、文本摘要、语法错误纠正。
  • 与NAR特性:通过迭代弥补NAR生成质量不足,适合需要高精度的场景。
  • 不足:多次迭代增加计算开销,需平衡迭代次数与速度。
  • 未来方向:优化迭代效率,探索自适应迭代策略,减少对AR伪数据的依赖。

LevT(《Levenshtein Transformer》):

  • 核心架构:基于Transformer,采用插入与删除操作(Insert and Delete)进行序列生成,通过迭代优化生成目标序列。
  • 关键创新
    • 插入与删除解码:通过动态插入新token或删除错误token,逐步精炼序列,解决长度预测问题。
    • 动态序列编辑:模拟Levenshtein距离的编辑操作,灵活处理序列长度和内容。
    • 并行训练:保留Transformer的并行训练能力,同时支持NAR生成。
  • 优势
    • 灵活处理序列长度不一致问题,生成质量高。
    • 适用于多种任务,生成过程可控。
  • 应用:机器翻译、文本编辑、语法纠正、对话生成。
  • 与NAR特性:通过编辑操作提升NAR生成灵活性,减少对预定义长度的依赖。
  • 不足:迭代编辑可能增加推理时间,复杂任务需多次操作。
  • 未来方向:减少迭代次数,优化编辑策略,扩展到多模态任务。

CMLM(《Conditional Masked Language Model》):

  • 核心架构:基于掩码语言模型(MLM),通过条件掩码预测(Conditional Masking)并行生成序列,结合Transformer架构。
  • 关键创新
    • 掩码与预测:随机掩码部分token并预测,多次迭代优化序列,模拟BERT的训练方式。
    • 条件依赖建模:利用条件上下文预测掩码token,增强生成一致性。
    • 并行生成:一次性预测所有掩码token,保持NAR的高效性。
  • 优势
    • 提高生成质量,BLEU分数接近AR模型。
    • 灵活适应多种序列生成任务。
  • 应用:机器翻译、文本摘要、对话系统。
  • 与NAR特性:通过掩码预测提升NAR生成质量,保留并行生成优势。
  • 不足:对初始掩码策略敏感,迭代次数可能影响速度。
  • 未来方向:优化掩码策略,减少迭代需求,结合预训练模型提升性能。

简要概述

论文标题:FourierNAT: A Fourier-Mixing-Based Non-Autoregressive Transformer for Parallel Sequence Generation
发表时间:2025年3月4日(初版),2025年4月15日(修订版)
来源:arXiv:2503.07630
作者:Andrew Kiruluta 等

FourierNAT 是一种新颖的非自回归Transformer(NAT)架构,旨在通过傅里叶变换(Fourier-based mixing)实现并行序列生成,解决传统NAT在捕获全局依赖关系上的不足。该方法通过在解码器中使用离散傅里叶变换(DFT)混合序列维度的标记嵌入,并结合学习到的频域门控机制(frequency-domain gating),高效传播上下文信息,无需显式的自回归步骤。


1. 研究背景

  • 非自回归Transformer(NAT)的挑战:NAT通过并行生成序列显著降低推理延迟,但由于缺乏自回归机制,难以捕捉全局依赖关系,导致生成质量(例如连贯性)低于自回归Transformer(AT)。
  • 傅里叶变换的应用:傅里叶变换(FFT)因其高效的全局混合能力,已在某些Transformer变体(如FNet)中用于编码器,但尚未广泛应用于NAT解码器。

2. 主要贡献

  • 提出FourierNAT架构
    • 在NAT解码器中引入 FourierMixing子层,通过一维快速傅里叶变换(1D FFT)沿序列维度混合标记嵌入,结合学习到的实部/虚部门控机制(real/imag gating),处理全局序列依赖。
    • 将频域操作与标准交叉注意力模块(cross-attention)和前馈投影(feed-forward projection)结合,支持并行生成标记,同时缓解NAT常见的连贯性问题。
  • 自适应依赖建模
    • 学习到的频域参数使模型能够自适应地聚焦于长距离或短距离依赖,部分缓解NAT在单次生成中的连贯性差距。
  • 高效实现
    • 使用Fairseq框架实现,实验在8个NVIDIA V100 GPU(32GB)上运行,批大小为4096标记,最大更新步数为WMT14 En-De的200k–300k步,CNN/DailyMail为160k步。
    • 可选择性地使用知识蒸馏(Knowledge Distillation)从自回归Transformer基线中稳定NAT训练并提高流畅度。

3. 方法细节

  • FourierMixing子层
    • 输入:初始占位符嵌入(placeholder embeddings,零或掩码嵌入),并行馈送到每层。
    • 过程:沿序列维度应用1D FFT,学习实部/虚部门控,应用逆FFT(iFFT),并添加位置嵌入(positional embeddings)。
    • 数学公式:论文提供了频域操作如何替换或补充非自回归解码器中自注意力的详细数学推导。
  • 训练设置
    • 优化器:Adam,β₂=0.98,预热4000步后学习率按逆平方根衰减。
    • 数据集:WMT14 En-De(机器翻译),CNN/DailyMail(摘要)。
    • 可选知识蒸馏:从自回归Transformer基线蒸馏以提升性能。

4. 实验结果

  • 性能
    • 在WMT14 En-De和CNN/DailyMail基准上,FourierNAT与领先的NAT基线(如Mask-Predict、Levenshtein Transformer)相比具有竞争力,生成质量接近自回归Transformer。
    • 频域操作有效缓解了NAT的连贯性问题,生成的序列更具上下文一致性。
  • 速度
    • 相比自回归基线,FourierNAT在解码速度上显著提升(具体加速倍数未明确,但优于AT)。
    • 与其他NAT方法相比,FourierNAT在单次或极少次生成中处理全局混合,减少了迭代需求。
  • 与其他方法的对比
    • 相较于Mask-Predict(多轮精炼)和Levenshtein Transformer(并行插入/删除),FourierNAT通过频域混合在更少的生成轮次中实现全局依赖建模。
    • 相较于FNet(仅编码器使用FFT),FourierNAT将傅里叶混合扩展到解码器,专为NAT设计。

5. 创新点

  • 频域混合:首次在NAT解码器中系统性地应用傅里叶变换,取代传统自注意力机制,降低对显式自回归步骤的依赖。
  • 单次生成:通过频域门控机制,FourierNAT在单次生成中高效捕获全局依赖,减少多轮迭代的需要。
  • 计算效率:频域操作(FFT)具有准线性复杂度,结合并行生成,显著降低推理时间,适合大规模语言模型(LLM)的推理任务。

6. 局限性与未来方向

  • 局限性
    • 频域操作的计算复杂性虽低于自注意力的O(N²),但仍需优化以适配超长序列。
    • 实验主要聚焦于机器翻译和摘要任务,需进一步验证在其他序列生成任务(如语音合成、图像生成)中的效果。
  • 未来方向
    • 探索更高效的频域操作实现,降低计算开销。
    • 将FourierNAT扩展到多模态任务或更复杂的生成场景。
    • 结合其他混合模型(如自回归与非自回归结合)进一步提升性能。

与序列模型结合的关联性

虽然FourierNAT本身未明确结合RNN等序列模型,但其频域混合机制可视为一种隐式的序列建模方式:

  • 傅里叶变换的全局混合:通过FFT,FourierNAT在频域中捕获序列的全局依赖,部分弥补了NAT在序列建模上的不足,类似于RNN的长距离依赖建模。
  • 与RNN的潜在联系:如论文“Transformers are RNNs”所述,Transformer与RNN存在理论联系。FourierNAT的频域操作可看作一种高效的“伪序列”处理方式,未来可能结合显式的RNN模块进一步增强序列建模。

结论

FourierNAT通过在非自回归Transformer解码器中引入傅里叶变换混合,提供了一种高效的并行序列生成方法,显著提升了NAT的速度和连贯性。其创新的频域门控机制使模型能够自适应地处理长短距离依赖,在WMT14 En-De和CNN/DailyMail基准上表现优异。该研究为频域操作在NAT中的应用开辟了新方向,展示了加速并行文本生成的潜力。

参考文献

  • FourierNAT: A Fourier-Mixing-Based Non-Autoregressive Transformer for Parallel Sequence Generation
  • Transformers are RNNs: Fast Autoregressive Transformers with Linear Attention
  • Title: mamba-transformer
  • Author: Ikko
  • Created at : 2025-06-09 13:47:33
  • Updated at : 2025-12-17 20:43:12
  • Link: http://ikko-debug.github.io/2025/06/09/mamba-transformer/
  • License: This work is licensed under CC BY-NC-SA 4.0.
Comments