Deep transfer learning Person Re-id
arxiv 2016 by Mengyue Geng, Yaowei Wang, Tao Xiang, Yonghong Tian
Transfer Learning
旧数据训练得到的分类器,在新的数据上重新训练,从而在新数据上取得比较好的表现,新数据与旧数据有相似的地方,但具有不同的分布。

Fine tuning一般步骤
这是InceptionV4的图示

移除Softmax分类层
换成与目标数据集输出维数相同的Softmax层
冻结靠近输入的卷积层
以较高的学习率训练分类层
以很低的学习率微调剩下的卷积层
论文核心模型

几个创新点:
对于CNN输出的两张图的特征,使用了相同的dropout而非各自独立的随机dropout
使用了二分类加多分类两种loss,二分类用于判断两张图中的人是否相同,多分类用于描述两张图中各自的人物ID
分两阶段进行Fine tune,先微调多分类,再联合二分类和多分类进行微调,避免多分类网络不稳定对二分类的影响
Unsupervised Transfer Learning

Self-training
将图片均分为两组(论文中是按摄像头划分的)
将B组中的每张图片,与A组中CNN输出相似度最高的图片归为一类,从而构造出多分类标签
喂入CNN训练
迭代多次
Co-training
由于CNN输出的图片相似度不一定真的可靠,存在噪音,因此Self-training效果没有特别好
寻找一个互补的模型,将特征映射到另一个子空间中
将B组中的每张图片,与A组中子空间相似度最高的图片归为一类,构造多分类标签
喂入CNN训练
迭代多次
Co-Model
CNN计算得到深度特征:
Learn a subspace defined by a dictionary D and a new representation Z in the subspace.
其中是reconstruction error
当和是最近邻时,$W_{ij}$为1,否则为0
从而最小化最近邻的representation z的差异
Trick Result
Softmax loss VS Multi loss: 76.6% -> 83.7%(Market1501)
一致的Dropout VS 随机的Dropout: 80.8%-> 83.7% (Market1501)
Two-stepped VS one-stepped: 47.6%->56.3%(VIPeR)
Supervised Transfer Learning Result
DataSet
State of the art
Transfer
CUHK03
75.3
85.4
Market1501
82.21
83.7
VIPeR
53.5
56.3
PRID
40.9
43.6
CUHK01
86.6
93.2
(表中都是top1准确率)
Unsupervised Transfer Learning Result
DataSet
State of the art
Transfer
VIPeR
33.5
45.1
PRID
25.0
36.2
CUHK01
41.0
68.8
Compare with other unsupervised method
使用其他无监督方法进行实验对比
Method
Top1 acc
Self-training
42.8
SubSpace
42.3
Transfer
45.1
CNN+AutoEncoder
36.4
Adversarial
22.8
其中SubSpace为只使用Co-Model,不使用CNN模型,Self-training为只使用CNN模型,Transfer是两者结合的Co-training。
总体来说这种无监督的方法取得了比较好的效果,在小数据集上甚至超过了有监督的效果。
如果觉得我的文章对你有帮助,可以前往github点个star
最后更新于
这有帮助吗?