论文阅读《DAN》

古老时代的一篇很数学的论文...

Posted by tianchen on October 23, 2019

DAN

  • 很经典的一篇文章了
  • 解决的问题the feature transferability drops significantly in higher layers with increasing domain discrepancy
    • 很好理解因为分布变得比较厉害
  • 办法就是,A Pair Of数据进来,MMD Loss计算出两个img进来的Feature Vector分布差异性,并且分析其差异.而一般的Classification Loss是证明原因
  • Semi-supervised LapCNN provides no improvement over CNN
    • 喷了一下Semi的这种方式,认为Semi的这种方式不能够更好的提升DA性能
    • 我也是这么想的,所以我拿AdaBN来做Transfer,拿Semi来做LifeLong
  • 核心思想
    • 把Task-Specific Layer的Hidden Representation(Feature Map/Weight Vector)
    • 映射到一个Reproducing Kernel Hilbert Space(相当于完成了一个Embedding)
    • 去吧不同Domain Distribution的Mean-Embedding显示地适配起来
      • 使用了一种Optimal Multiple Kernel Selection的方法
    • 本质上还是去适配不同Domain的Feature Representation