论文阅读笔记《Exploring The Limits Of Weak Supervised Pretraining》

又是Facebook的文章...

Posted by tianchen on October 12, 2019

由于时间问题,这篇文章最终变成了草读…

Exploring The Limits Of Weak Supervised Pretraining

  • FAIR
  • ECCV2018
  • 起因是ImageNet太小了,图片的标注有些困难了,开发了一种迁移学习的方法,从超大量的Social Media图片中,用大CNN(所谓的大CNN对Imganet来说也就就是ResNet101),做hashtag prediction
    • 把Social Media中的Hashtag,来作为弱Label(还真tm只有facebook能做,淦…)
    • 要革了人工标注的命

用了啥Dataset

  • Instagram Dataset
    • 甚至是有一套采数据的流程…
    • 一个图片很可能对应多个Hashtag

怎么个Transfer法

  • Full Network Finetune
    • 和正常的finetune无异
  • Feature Transfer
    • 首先按照L2泛化训练一个网络
    • 后面接上Softmax直接去训后面这个Logistic Classifier
      • 据说后面这个能起到不错的效果

实验

  • 超级多,能提点

真是读的最草率的一篇论文