Attention
引言
笔者前两天看到了这篇文章,因为最近也一直在看这方面就写篇博客记录一下。
这篇文章主要是结合了Attention机制来做的Object Transfiguration
Object Transfiguration
用传统的GAN网络做Object Transfiguration 时一般有两个步骤:
- 检测感兴趣的目标
- 将检测到的目标转换到另一个域
于是作者将这中传统的生成网络,分成了两个网络:
- Attention network
- Object Transfiguration network
其中Attention network 用于提供稀疏的Attention maps,Object Transfiguration network做域转换,之后在将两个网络的输出进行合成得到最终的output。
Model
此模型包含三个部分A(for Attention),T(for Transfiguration ),D(for Discriminator)。
其中的Transfiguration指域转换。
Attention
引言
笔者前两天看到了这篇文章,因为最近也一直在看这方面就写篇博客记录一下。
这篇文章主要是结合了Attention机制来做的Object Transfiguration
Object Transfiguration
用传统的GAN网络做Object Transfiguration 时一般有两个步骤:
- 检测感兴趣的目标
- 将检测到的目标转换到另一个域
于是作者将这中传统的生成网络,分成了两个网络:
- Attention network
- Object Transfiguration network
其中Attention network 用于提供稀疏的Attention maps,Object Transfiguration network做域转换,之后在将两个网络的输出进行合成得到最终的output。
Model
此模型包含三个部分A(for Attention),T(for Transfiguration ),D(for Discriminator)。
其中的Transfiguration指域转换。