迁移学习
迁移学习(Transfer Learning)根据 领域 和 任务的相似性,可以这样划分:

根据 源Domain和目前Domain 之间的关系,源Task 和 目标Task之间的关系,以及任务方法更详细的整理为下表:
学习类型 | 源Domain & 目标Domain | 源Task & 目标Task | 源Data & 目标Data | 任务方法 |
---|---|---|---|---|
传统机器学习 | 相同 | 相同 | 有标签 | 有标签 | |
归纳式迁移学习 | 相同/相关 | 相关 | 多任务学习 - 有标签 | 有标签 | 分类回归 |
自我学习 - 无标签 | 有标签 | ||||
直推式迁移学习 | 相关 | 相同 | 有标签 | 无标签 | 分类回归 |
无监督迁移学习 | 相关 | 相关 | 无标签 | 无标签 | 聚类降维 |
实际上,归纳式迁移学习 是应用最广泛的一种方法,从这点上看,迁移学习更适合 有标签的应用域。根据技术方法,我们将迁移学习的方法划分为:
说明 | 归纳式 | 直推式 | 无监督 | |
---|---|---|---|---|
基于样本的迁移学习 | 通过调整源Domain的标签(辅助)和目标Domain标签的权重,协同训练得到目标模型。典型方法:TrAdaBoost | √ | √ | |
基于特征的迁移学习 | 找到“好”特征来减少源Domain和目标Domain之间的不同,能够降低分类、回归误差。典型方法:Self-taught learning, multi-task structure learning | √ | √ | √ |
基于参数的迁移学习 | 发现源Domain和目标Domain之间的共享参数或先验关系。典型方法:Learning to learn, Regularized multi-task learning | √ | ||
基于相关性的迁移学习 | 建立源Domain和目标Domain之间的相关知识映射。典型方法:Mapping方法 | √ |
References
上次更新: 2025/04/02, 12:03:38