DAN
- 很经典的一篇文章了
- 解决的问题
the feature transferability drops significantly in higher layers with increasing domain discrepancy
- 很好理解因为分布变得比较厉害
- 办法就是,A Pair Of数据进来,MMD Loss计算出两个img进来的Feature Vector分布差异性,并且分析其差异.而一般的Classification Loss是证明原因
- Semi-supervised LapCNN provides no improvement over CNN
- 喷了一下Semi的这种方式,认为Semi的这种方式不能够更好的提升DA性能
我也是这么想的,所以我拿AdaBN来做Transfer,拿Semi来做LifeLong
- 核心思想
- 把Task-Specific Layer的Hidden Representation(Feature Map/Weight Vector)
- 映射到一个Reproducing Kernel Hilbert Space(相当于完成了一个Embedding)
- 去吧不同Domain Distribution的Mean-Embedding显示地适配起来
- 使用了一种Optimal Multiple Kernel Selection的方法
- 本质上还是去适配不同Domain的Feature Representation