

本文关注点是联邦类持续学习(FCCL),其中新类在联邦学习中动态添加。
综述
标题:TARGET: 基于无范例蒸馏的联合类连续学习
主要贡献:
- 证明Non-IID数据加剧了FL的灾难性遗忘。
- 提出TARGET,减轻FCCL灾难性遗忘的同时,保留了客户端数据隐私。
优点:
TARGET不需要任何额外的数据集或存储来自先前任务的真实数据,适用于数据敏感场景。
问题背景
传统FL假设静态数据类和域是静态的,而新类可能会出现,数据域在现实中可能随时间变化。
FCCL旨在缓解FL中灾难性遗忘问题,并通过动态添加新类模拟现实场景。其允许本地客户端不断收集新数据,并且可以随时添加新类。
然而,现存FCCL工作往往受限,大多数FCCL方法通过使用额外的数据集或以前的任务数据训练全局模型从而缓解遗忘,但这种方式对客户端数据隐私产生威胁。
本文旨在解决在不存储客户端的本地私有数据或任何额外的数据集的情况下,有效地缓解FCCL中的灾难性遗忘问题。
补充定义
联邦类持续学习(FCCL)
FCCL专注于FL中新类别学习模型的问题。
FCCL框架由中央服务器和多个客户端组成。所有客户端不与任何其他客户端或中央服务器共享它们的原始数据。每个客户端从 n 个任务序列中学习,其中第 k 个任务包含类 Ck ∈ C 的非重叠子集,其中 C 是所有可能类的集合。
在隐私感知场景中,任务流以未知顺序呈现,每个客户端只能在该任务的训练期间从任务 k 访问其本地数据,此后不再可访问。模型以分布式方式进行训练,其中每一方只能访问类 Ck 的子集(Non-IID)。本文假设每个客户端中数据异构(格式、结构、语义等存在差异)且标签分布倾斜(不同类样本数量分布不平衡)。
遗忘问题
客户端仅被授权用当前新任务下的数据更新模型,这通常导致先前任务性能显著下降。一般由网络参数被更新时,先前学习的权重被更新覆盖导致。本文的目标是最小化当前类集 Ck 上的分类错误的同时,最小化先前学习类的变化。
目标函数:
其中
对遗忘程度的衡量
其中
其中
模型建立
- 利用先前训练的全局模型将旧任务的知识转移到新任务上。
- 训练一个生成器来合成数据,模拟每个客户端的数据分布。
服务器端:为旧任务合成数据
给定在任务
- 优化生成器生成符合全局模型分布的数据。
- 通过合成数据从教师模型中提取知识,更新学生模型。
生成数据:
利用
仅使用CE可能导致
KL散度衡量实际分布与理论分布间的差异,通过最大化(?)KL散度损失生成更好的数据。
同时,引入BN稳定数据分布,提高生成器训练稳定性,并在总损失中加入批归一化损失。
总损失如下:
模型蒸馏:
引入学生模型帮助训练生成器以产生更高多样性的数据,并用训练几轮的生成器的合成数据与教师模型的输出来训练学生模型,使用KL损失进行知识蒸馏。
客户端:使用全局信息更新
在客户端,我们可以得到使用前一个任务和当前任务的真实训练数据所合成的数据,然后我们同时训练两个数据集在任务 k 上的局部模型
实验结果
灾难性遗忘
不同程度Non-IID下的表现
结论
- 介绍基于无范例蒸馏的联合类连续学习方法。
- 缓解灾难性遗忘问题。
- 适合隐私敏感场景。