MAML

一、 One-shot Learning

  • 解决的问题

    使用少量的样本进行快速的学习

  • 解决的方法

    • Transfer Learning
    • Meta Learning
      • One-shot Learning with Memory-Augumented Neural Networks
      • Optimization as a Model for Few Shot Learning
      • Model-Agnostic Meta Learning (MAML)

二、Model Agnostic Meta Learning

  • Intuition
    • 在任务之间的相关性,(Interal representations)
    • 任务之间迁移
    • 类似于迁移学习
  • Meta Learning
    • 参数对微小的变化敏感
    • 极大的优化了在任何问题上的Loss function

2.1 定义

  • 模型$f(\theta):(x→a)$, 输入$x$, 输出$a$
  • 任务$T =\{L(x_1, a_1, . . . , x_H, a_H), q(x_1), q(x_{t+1}|x_t, a_t),H\}$ ,其中$L$是trajectory的Loss,其将产生一个针对于特定任务的反馈 ,$H$是episode length,$q(x_1)$是初始observation 分布,$q(x_{t+1}|x_t,a_t)$是状态转移。
  • 对于监督学习任务来说,$H=1$
  • $P(T)$是模型期望的任务分布,元学习场景中,希望模型能够适应的任务分布。
  • 对于K-shot Learning 来说,在元学习过程中,从$P(T)​$中采样一个任务$T_i​$,模型用$K​$个样本进行训练,然后从$T_i​$对应的Loss中进行feedback,之后在从$T_i​$上采样的新样本上进行测试。

2.2 方法

  • 模型$f_\theta$,当去适应新的任务$T_i$时,模型参数从$\theta$更新为$\theta’_i$:

    这里的参数$\alpha​$可以当成变量也可以当成超参数

  • 目标函数(Meta objective)

  • Meta optimization

直观表示适应过程

一分钱也是爱,mua~