DYSON
0. 摘要
本文聚焦于一个具有挑战性的问题——在线任务无关的类增量学习(OTFCIL)。与现有方法从数据流中持续学习特征空间不同,我们提出了一种新的计算 - 对齐范式。该范式首先为现有类计算一个最优几何结构(即类原型分布),并在新类出现时更新它,然后通过将深度神经网络模型的特征空间与最优几何结构对齐来进行训练。为此,我们开发了一种新的动态神经坍缩(DNC)算法来计算和更新最优几何结构。DNC 在新类出现时扩展几何结构而不损失其最优性,并确保旧类原型的漂移距离具有明确的上界。在此基础上,我们提出了一种新的动态特征空间自组织(DYSON)方法,包含三个主要组件:1)特征提取器,2)动态特征 - 几何对齐(DFGA)模块,将特征空间与 DNC 计算的最优几何结构对齐,以及 3)基于 DNC 几何的无训练类增量分类器。在 CIFAR10、CIFAR100、CUB200 和 CoRe50 四个基准数据集上的实验对比结果证明了 DYSON 方法的高效性和优越性。源代码发布于 https://github.com/isCDX2/DYSON。
1. 引言
在线任务无关的类增量学习(OTFCIL)[19, 34] 以连续数据流为输入,旨在通过在线学习逐步学习新出现的类,而无需任务边界和标识符。与传统的类增量学习 [12, 27, 32, 45, 49] 将数据流划分为一系列子集(称为会话或任务)不同,OTFCIL 是一个更为实际但更具挑战性的问题,因为样本是一次性提供的,且新旧类知识是混合的。
现有的 OTFCIL 方法根据知识学习和维护策略,主要分为三类:数据回放 [19, 34]、网络扩展 [39, 41] 和知识蒸馏 [2, 33] 方法。数据回放方法 [7, 34, 37, 43, 51] 存储少量旧类的训练样本或生成样本(称为示例),并在学习新类数据时回放它们以减轻旧类的灾难性遗忘。网络扩展方法 [32, 34, 39, 41, 47] 初始化一个新分支 [32, 39, 47]、新提示 [34] 或新分类器 [41] 来学习新类知识,并在增量学习过程中保持其他部分冻结以维护旧类知识。知识蒸馏方法 [17, 27, 30, 33, 37, 46] 将先前获得的模型视为教师模型,并通过逻辑 [27, 37]、特征 [17, 33] 和关系蒸馏 [30, 46] 将旧知识转移到新模型中。

所有这些方法在增量学习过程中都不得不持续动态地调整其特征空间以适应无缝数据流。这种范式在学习新类时笨拙且在维护旧类时不稳定。如图 1(a)所示,在学习新类时,新类的特征难以收敛到某个类中心(即类内均值),因为中心会随着新样本的变化而变化,而旧类中心不可避免地会随着特征空间的调整而漂移。这在样本一次性提供(即在线学习)且新旧类数据混合(即没有任务边界和标识符)时尤为明显。
基于上述观察,我们思考,是否可以不从数据中学习特征空间几何,而是计算一个最优分类几何并在新类出现时动态更新它。在此基础上,OTFCIL 可以通过将特征空间与最优几何结构对齐来解决,即图 1(b)所示的计算 - 对齐范式。为此,我们提出了一种新的动态特征空间自组织(DYSON)框架,受到神经坍缩(NC)理论 [53] 的启发。NC 理论揭示了对于一个 K 类分类问题,在训练的最后阶段(训练误差为 0),同一类的最后一层特征将坍缩到一个 K 原型单形等角紧框架(ETF)。这些原型构建了一个最优分类几何结构,其中所有原型都是具有相同 l2 范数的单位向量,并且共享相同的对偶角,最大限度地分离特征空间。这为计算最优分类几何结构提供了机会。然而,由于原始的 NC 要求在训练期间预先定义并固定类的数量,因此它不适用于类增量学习。为了应对这一挑战,我们提出了一种新的动态神经坍缩(DNC)算法,能够随着不断出现的新类自适应地计算和更新最优几何结构。DNC 在新类出现时扩展几何结构而不损失其最优性,并确保旧类原型的漂移距离具有明确的上界。
在此基础上,我们提出了 DYSON 框架,包含三个主要组件:1)特征提取器,2)动态特征 - 几何对齐(DFGA)模块,将特征空间与 DNC 算法计算的最优几何结构对齐,以及 3)基于 DNC 几何的无训练类增量分类器。我们在 CIFAR10、CIFAR100、CUB200 和 CoRe50 四个基准数据集上进行了全面的实验,并与最先进的方法进行了比较。对比结果证明了 DYSON 的优越性和高效性。主要贡献总结如下:
- 我们提出了一种新的学习 - 对齐范式用于 OTFCIL,首先计算一个最优分类几何结构并在新类出现时更新它,然后将特征空间与该几何结构对齐。
- 我们设计了一种新的动态神经坍缩(DNC)算法,能够在不损失几何最优性的情况下扩展几何结构,并确保旧类原型的漂移具有明确的上界。
- 我们提出了一种新的动态特征空间自组织(DYSON)方法,包含特征提取器、动态特征 - 几何对齐(DFGA)模块和无训练类增量分类器。
- DYSON 在 CIFAR10、CIFAR100、CoRe50 和 CUB200 数据集上显著优于最先进的方法,分别提升了 8.9%、16.6%、26.8% 和 4.4%。
2. 相关工作
2.1. 类增量学习
现有的持续学习方法主要分为三类:数据回放、网络扩展和知识蒸馏方法。
数据回放方法通过存储或合成旧任务样本数据来防止模型发生灾难性遗忘。End-to-end [7]、iCaRL [37] 及其改进方法 [4, 11, 18] 基于 herding 算法选择存储的旧样本。此外,存储的旧任务数据也可以作为正则化约束。A-GEM [8] 使用新旧数据计算损失梯度向量的标量积,仅当标量积为正时更新参数。生成伪样本进行回放也可以有效缓解模型遗忘。ILUGAN [51] 通过生成对抗网络 [13] 生成伪样本以解决数据不平衡问题,类似的方法还有 [36] 和 [44]。
网络扩展方法通过冻结或隔离模型结构的一部分来减轻灾难性遗忘。[40] 冻结对特定任务最重要的权重,使其在反向传播时不更新。PackNet [32] 及其变体 [1] 为每个任务分配一部分参数空间,以隔离新旧任务参数。另一方面,一些基于架构的方法动态地向网络添加新层以增强模型学习新知识的能力,例如 [38, 48]。PNN [39]、Dytox [12]、Foster [47] 和 Der [52] 方法通过任务复制新组织来实现新旧知识的转移。
知识蒸馏被引入损失函数中,以使更新后的模型保留过去的记忆。权重蒸馏是一种基于正则化的方法。通过减少与先前任务相关的权重变化程度,权重保留了在旧任务中学到的知识。EWC [21] 提出使用 Fisher 信息矩阵计算权重的重要性,其变体方法 [2, 29, 56] 改进了重要性的计算。另一种正则化方法是数据正则化。LWF [27] 和 [10, 25] 等方法基于新任务数据的知识蒸馏,使新模型对新任务的预测与旧模型对新任务的预测相似。
除了上述三类方法外,CL 领域还有一些新的趋势。L2P [49] 使用预训练模型作为骨干网络,并通过学习提示来恢复知识。FearNet [20] 使用双重记忆系统来防止灾难性遗忘。混合系统模型也越来越常见。A-GEM [8] 结合了回放和正则化方法。DSDM [34] 在改变模型架构的同时使用动态记忆,因此它是基于架构和基于回放的混合方法。
2.2. 在线类增量学习
在线类增量学习旨在训练模型如何有效地从单次传输的在线数据流中学习知识。与离线学习相比,在线学习会限制模型的学习效率并加剧灾难性遗忘。该领域有许多算法从不同角度提出,例如 [3, 5, 14, 15, 28, 35, 42]。MIR [3] 提出根据梯度选择样本进行训练。DVC [14] 提出使用图像的互信息来充分探索单向数据流中的语义信息。GDUMB [35] 提出使用缓冲区数据重新训练模型以解决灾难性遗忘。[28] 将基于代理的损失与基于收缩的损失结合起来。
2.2.1 在线任务无关的类增量学习
与在线持续学习不同,在线任务无关的持续学习没有任务边界。为了解决 OTFCL 问题,一些方法随机初始化模型并从头开始训练。CoPE [9] 提出了一种架构,用于在 OTFCL 实验中平衡模型的稳定性和可塑性。考虑到梯度,GMED [19] 提出了一种策略,选择最能代表旧任务的样本数据。CN-DPM [26] 设计了一种可扩展的模型架构,突破了 OTFCL 的限制。然而,上述模型通过随机初始化进行训练,这使得它们的分类精度相对较低。因此,DSDM [34] 和 Ensemble [41] 提出使用预训练模型作为骨干网络来解决 OTFCL 问题,并取得了优异的成绩。DSDM [34] 根据特征的分布更新由位置向量和标签向量组成的单元池。Ensemble [41] 主要在单层线性中训练,以便在推理阶段与 NCM 分类器选择的类标签对应。
与我们的 DYSON 最相关的方法是 FCA [54],它采用神经坍缩技术来解决少样本类增量学习问题。然而,DYSON 与 FAC 的差异和贡献是显著且重要的。首先,DYSON 具有技术能力(使用 DNC)为新出现的类增量更新几何结构,而 FCA 必须预先定义类的总数并在训练期间固定它。其次,FCA 依赖任务边界和标识符来区分新旧类知识,并使用存储旧类样本的缓冲区来缓解灾难性遗忘,而 DYSON 是一种在线任务无关的方法,不需要任何缓冲区。在第 5 节中,我们将 DYSON 与 FCA 进行比较,以展示所提出方法的效率和优越性。
3. 预备知识
神经坍缩(NC)[53] 揭示了一个现象,即在分类任务的训练末期(训练误差为 0),最后一层特征空间的最优几何结构可以由一个单形等角紧框架(ETF)定义。
3.1 单形等角紧框架的定义
对于一个 K 类分类问题,其 K 个类的类内均值对应于一个 K 原型的单形 ETF,其中原型
其中
单形 ETF 中的原型构建了一个最优的分类几何结构,其中所有原型都是具有相同
其中
基于上述定义,NC 现象可以总结为:
(NC1) 类内最后一层特征坍缩:同一类的最后一层特征将坍缩到其类内均值,即
(NC2) 收敛到单形 ETF:类内均值以全局均值
(NC3) 自对偶性:第 k 类的分类器权重
(NC4) 简化为最近类中心预测:
4. 方法论
4.1. 问题公式化
设
4.2. 框架概述
图 2 展示了我们提出的 DYSON 方法的框架,它是一个在线且参数高效的学习模型,包含三个主要组件:(a) 一个预训练的特征提取器骨干

具体来说,开始时我们初始化一个空集
特征提取器:在每个步骤
其中
动态特征 - 几何对齐:以特征集
其中
在此基础上,我们使用动态神经坍缩(DNC)算法计算当前
其中
在训练过程中,在每个学习步骤
其中
无训练的类增量分类器:由于同一类的投影特征
当新类出现时,我们通过更新由 DNC 计算的
损失函数:在训练过程中,以每个样本批次
4.3. 动态神经坍缩
在以下描述中,我们省略了下标
其中
其中
其中所有原型都是单位向量,即
原型更新:当出现
在第 4.4 节中,我们证明了 DNC 在不损失几何最优性的情况下将几何结构从
提高几何稳定性:在类数量
具体来说,我们初始化一个随机正交矩阵
然后使用公式 (10) 和 (11) 计算类原型
其中
4.4. 理论分析
定理 1:在增量学习过程中,DNC 算法将具有
其中
定理 2:当出现
5. 实验
在本节中,我们在四个基准数据集上进行了全面的实验,以展示所提出方法的优越性和通用性。
5.1. 数据集和评估细节
我们在四个基准数据集上进行了实验,包括 CIFAR-10 [23]、CIFAR-100 [23]、CUB-200 [50] 和 CoRe50 [31],以验证所提出的 DYSON 方法的效率和有效性。
数据集:CIFAR-10 [23] 包含 10 个类别的 60,000 张图像,其中 50,000 张用于训练,其余用于测试。图像分辨率为 32×32。CIFAR-100 [23] 包含 100 个类别的 60,000 张图像,每个类别包含 600 张图像,其中 500 张用于训练,100 张用于测试。CUB-200 [50] 包含 200 个鸟类类别的 11,788 张图像,每个类别大约有 30 张训练图像和 29 张测试图像。CoRe50 [31] 包含 50 个类别,总共 164,866 张图像,每个类别大约有 2,400 张训练图像和 900 张测试图像。
评估协议:为了公平比较,我们遵循 [34, 41] 中的评估协议,在四个基准数据集上进行了 n 步比较结果。n 步协议表示,按照随机的类顺序,每个增量学习阶段包含 n 个类。例如,对于 10 个类的 2 步增量学习,OTFCIL 包含 5 个增量学习阶段,每个阶段包含 2 个类。我们进行了 1 步、2 步、5 步和高斯步的评估。
评估指标:我们采用广泛使用的平均准确率(Avg)和最后一步准确率(Last)来评估所提出的方法。Avg 是每个学习阶段后准确率的平均值,Last 是所有类别上的最终准确率。我们在配备 NVIDIA 3090TiGPU 的 PC 上进行实验,每个实验运行 5 次并报告平均性能。
实现细节:与最先进的 OTFCIL 方法 [34]、CoPE [9] 和 Ensemble [41] 类似,我们使用在 ImageNet 上预训练的 ResNet50 [16] 和 ViT-S/8 [6] 作为特征提取器骨干,并移除分类器。我们设置批量大小
5.2. 与最先进方法的比较
在线任务无关的类增量学习:在表 1 中,我们将 DYSON 方法与最先进的 OTFCIL 方法进行比较,包括 CoPE [9]、CN-DPM [26]、GMED [19]、FCA [54]、Ensemble [41] 和 DSDM [34],以及代表类增量学习的 L2P [49] 方法。与最近的工作 DSDM 类似,我们在 CIFAR-10 和 CIFAR-100 数据集上报告了 1 步、2 步、5 步和高斯步评估协议下的最后准确率(Last),其中比较的方法使用与我们相同的 ResNet50 和 ViT-S/8 作为骨干网络。从表中可以看出:1)通过计算 DNC 几何结构并使用新类特征和旧类伪特征将特征空间与几何结构对齐,DYSON 是一种无需存储任何旧类样本的无缓冲区方法,能够有效缓解灾难性遗忘。2)与使用 1k 旧类样本存储的竞争性 DSDM 方法相比,DYSON 在 CIFAR-10 和 CIFAR-100 数据集上显著且稳定地优于 DSDM。在 CIFAR-10 数据集上,使用相同的 ViT-S/8 骨干网络,DYSON 在 1 步、2 步和高斯步协议下分别比 DSDM 高出 7.1%、7.9% 和 8.9%。在更具挑战性的 CIFAR-100 数据集上,使用相同的 ViT-S/8 骨干网络,DYSON 在 1 步、2 步和高斯步协议下分别比 DSDM 高出 16.1%、14.8% 和 15.0%。这些结果证明了 DYSON 方法的优越性。3)使用 ResNet50 和 ViT-S/8 作为骨干网络,DYSON 在所有情况下都显著优于最先进的方法,展示了其对不同骨干网络的鲁棒性。
在线类增量学习:遵循 [15, 34] 中的在线 CIL 设置,我们在表 2 中对 CIFAR-10 和 CoRe50 数据集进行了实验比较。CIFAR-10 在 2 步评估协议下进行评估,其中学习过程分为 5 个学习阶段,每个阶段包含两个新类的样本。CoRe50 分为 9 个学习阶段,第一个阶段学习 10 个类,后续增量阶段学习 5 个类。我们将提出的方法与最先进的在线 CIL 方法进行比较,包括 A-GEM [8]、MIR [3]、GSS [5]、ASER [42]、GDUMB [35] 和 Candidates Voting [15]。为了公平比较,所有比较方法(包括 DYSON)使用相同的 ImageNet 预训练 ResNet18 作为骨干网络。从表 2 中可以看出:1)所有现有的最先进方法都严重依赖于存储旧类样本(即缓冲区大小)来解决具有挑战性的在线增量学习问题,存储的样本越多,它们的准确率越高。2)提出的 DYSON 方法无需存储旧类样本,并显著优于基于缓冲区的方法。特别是在 CoRe50 数据集上,DYSON 在平均准确率(Avg)和最后准确率(Last)上分别比竞争性 DSDM-1k 高出 26.8% 和 18.0%,并比 DSDM-5k 高出 4.4% 和 4.2%。
离线任务无关的类增量学习:此外,在表 3 中,我们还在 CIFAR-100 和 CUB-200 数据集上进行了离线 TFCIL 性能评估。遵循 [20, 51] 中的设置,所有比较方法使用 ImageNet 预训练的 ResNet50 作为骨干网络,现有方法使用 3k 缓冲区大小存储旧类样本。从表中可以看出,DYSON 在所有情况下都显著优于现有方法。与竞争性 DSDM 方法相比,DYSON 在 CIFAR-100 数据集的 2 步和 5 步协议下分别实现了 8.4% 和 8.7% 的平均准确率提升,在 CUB-200 数据集上分别实现了 3.2% 和 4.4% 的提升。
性能分析:我们可以看到,DYSON 在无需使用任何缓冲区的情况下显著优于现有的最先进方法。性能的提升来自两个方面:首先,学习 - 对齐范式,首先为出现的类计算最优几何结构,然后将特征空间与该几何结构对齐。其次,提出的 DNC 算法在新类出现时计算和更新几何结构,它在不损失结构最优性的情况下扩展几何结构,并确保旧类原型的漂移具有明确的上界,从而保证了旧知识的稳定性。
5.3. 消融实验
超参数
不使用标签注释的预训练骨干网络:为了消除四个基准数据集中的新类是否已经被 ImageNet 预训练模型学习过的担忧,在表 5 中,我们使用自监督的 DINO-ResNet50 骨干网络 [6] 进行了消融实验。DINO-ResNet50 通过自监督信息蒸馏进行预训练,在训练过程中未使用类别信息。从表中可以看出,使用 DINO-ResNet50 进一步提高了性能,这证明了所提出方法在学习新类方面的能力。
6. 结论
我们提出了一种新的 DYSON 方法,包含特征提取器骨干、动态特征 - 几何对齐(DFGA)模块和无训练类增量分类器,用于解决具有挑战性的 OTFCIL 问题。它遵循一种新的学习 - 对齐范式,首先为现有类计算最优分类几何结构并在新类出现时更新它,然后将特征空间与该几何结构对齐。我们推导了动态神经坍缩(DNC)算法来计算和更新几何结构,其中几何结构在不损失最优性的情况下进行更新,并且旧类原型的漂移具有明确的上界。