Geeks_Z の Blog Geeks_Z の Blog
首页
  • 学习笔记

    • 《HTML》
    • 《CSS》
    • 《JavaWeb》
    • 《Vue》
  • 后端文章

    • Linux
    • Maven
    • 汇编语言
    • 软件工程
    • 计算机网络概述
    • Conda
    • Pip
    • Shell
    • SSH
    • Mac快捷键
    • Zotero
  • 学习笔记

    • 《数据结构与算法》
    • 《算法设计与分析》
    • 《Spring》
    • 《SpringMVC》
    • 《SpringBoot》
    • 《SpringCloud》
    • 《Nginx》
  • 深度学习文章
  • 学习笔记

    • 《PyTorch》
    • 《ReinforementLearning》
    • 《MetaLearning》
  • 学习笔记

    • 《高等数学》
    • 《线性代数》
    • 《概率论与数理统计》
  • 增量学习
  • 哈希学习
GitHub (opens new window)

Geeks_Z

AI小学生
首页
  • 学习笔记

    • 《HTML》
    • 《CSS》
    • 《JavaWeb》
    • 《Vue》
  • 后端文章

    • Linux
    • Maven
    • 汇编语言
    • 软件工程
    • 计算机网络概述
    • Conda
    • Pip
    • Shell
    • SSH
    • Mac快捷键
    • Zotero
  • 学习笔记

    • 《数据结构与算法》
    • 《算法设计与分析》
    • 《Spring》
    • 《SpringMVC》
    • 《SpringBoot》
    • 《SpringCloud》
    • 《Nginx》
  • 深度学习文章
  • 学习笔记

    • 《PyTorch》
    • 《ReinforementLearning》
    • 《MetaLearning》
  • 学习笔记

    • 《高等数学》
    • 《线性代数》
    • 《概率论与数理统计》
  • 增量学习
  • 哈希学习
GitHub (opens new window)
  • Python

  • MLTutorials

  • 卷积神经网络

  • 循环神经网络

  • Transformer

  • VisionTransformer

  • 扩散模型

  • 计算机视觉

  • PTM

  • MoE

  • LoRAMoE

  • LongTailed

  • 多模态

  • 知识蒸馏

  • PEFT

  • 对比学习

  • 小样本学习

  • 迁移学习

    • 迁移学习
      • References
    • 基于样本的迁移学习
    • 基于特征的迁移学习
    • 基于参数的迁移学习
    • 基于相关性的迁移学习
    • 模型预训练迁移法
    • 领域自适应和领域泛化
  • 零样本学习

  • 集成学习

  • Mamba

  • PyTorch

  • CL

  • CIL

  • 小样本类增量学习FSCIL

  • UCIL

  • 多模态增量学习MMCL

  • LTCIL

  • DIL

  • 论文阅读与写作

  • 分布外检测

  • GPU

  • 深度学习调参指南

  • AINotes
  • 迁移学习
Geeks_Z
2024-12-30
目录

迁移学习

迁移学习(Transfer Learning)根据 领域 和 任务的相似性,可以这样划分:

根据 源Domain和目前Domain 之间的关系,源Task 和 目标Task之间的关系,以及任务方法更详细的整理为下表:

学习类型 源Domain & 目标Domain 源Task & 目标Task 源Data & 目标Data 任务方法
传统机器学习 相同 相同 有标签 | 有标签
归纳式迁移学习 相同/相关 相关 多任务学习 - 有标签 | 有标签 分类回归
自我学习 - 无标签 | 有标签
直推式迁移学习 相关 相同 有标签 | 无标签 分类回归
无监督迁移学习 相关 相关 无标签 | 无标签 聚类降维

实际上,归纳式迁移学习 是应用最广泛的一种方法,从这点上看,迁移学习更适合 有标签的应用域。根据技术方法,我们将迁移学习的方法划分为:

说明 归纳式 直推式 无监督
基于样本的迁移学习 通过调整源Domain的标签(辅助)和目标Domain标签的权重,协同训练得到目标模型。典型方法:TrAdaBoost √ √
基于特征的迁移学习 找到“好”特征来减少源Domain和目标Domain之间的不同,能够降低分类、回归误差。典型方法:Self-taught learning, multi-task structure learning √ √ √
基于参数的迁移学习 发现源Domain和目标Domain之间的共享参数或先验关系。典型方法:Learning to learn, Regularized multi-task learning √
基于相关性的迁移学习 建立源Domain和目标Domain之间的相关知识映射。典型方法:Mapping方法 √

References

  • 迁移学习:经典算法解析 (opens new window)
上次更新: 2025/06/25, 11:25:50
UCL
基于样本的迁移学习

← UCL 基于样本的迁移学习→

最近更新
01
帮助信息查看
06-08
02
常用命令
06-08
03
学习资源
06-07
更多文章>
Theme by Vdoing | Copyright © 2022-2025 Geeks_Z | MIT License
京公网安备 11010802040735号 | 京ICP备2022029989号-1
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式