梦里风林
首页
知乎
Github
赞赏
搜索文档…
Introduction
Android
Computer Vision
Machine Learning
技巧
实践
工具
Papers
Classification
Re-identification
CVPR2018:TFusion完全解读
ECCV2018:TAUDL
CVPR2018:Graph+reid
Person Re-identification
CVPR2016 Re-id
Camera topology and Person Re-id
Deep transfer learning Person Re-id
Evaluate
Object Detection
Depth
3D vision
Hashing
大杂烩
《机器学习》(周志华)读书笔记
Java
后端开发
Linux && Hardware
Python
web前端
UI
kit
thinking-in-program
我的收藏
琐记
赞赏支持
由
GitBook
提供支持
Deep transfer learning Person Re-id
arxiv 2016
by Mengyue Geng, Yaowei Wang, Tao Xiang, Yonghong Tian
Transfer Learning
旧数据训练得到的分类器,在新的数据上重新训练,从而在新数据上取得比较好的表现,新数据与旧数据有相似的地方,但具有不同的分布。
Fine tuning一般步骤
这是InceptionV4的图示
移除Softmax分类层
换成与目标数据集输出维数相同的Softmax层
冻结靠近输入的卷积层
以较高的学习率训练分类层
以很低的学习率微调剩下的卷积层
论文核心模型
几个创新点:
对于CNN输出的两张图的特征,使用了相同的dropout而非各自独立的随机dropout
使用了二分类加多分类两种loss,二分类用于判断两张图中的人是否相同,多分类用于描述两张图中各自的人物ID
分两阶段进行Fine tune,先微调多分类,再联合二分类和多分类进行微调,避免多分类网络不稳定对二分类的影响
Unsupervised Transfer Learning
Self-training
将图片均分为两组(论文中是按摄像头划分的)
将B组中的每张图片,与A组中CNN输出相似度最高的图片归为一类,从而构造出多分类标签
喂入CNN训练
迭代多次
Co-training
由于CNN输出的图片相似度不一定真的可靠,存在噪音,因此Self-training效果没有特别好
寻找一个互补的模型,将特征映射到另一个子空间中
将B组中的每张图片,与A组中子空间相似度最高的图片归为一类,构造多分类标签
喂入CNN训练
迭代多次
Co-Model
CNN计算得到深度特征:
𝑦
=
θ
(
𝑥
)
𝑦=\theta(𝑥)
y
=
θ
(
x
)
Learn a subspace defined by a dictionary D and a new representation Z in the subspace.
(
D
∗
,
Z
∗
)
=
m
i
n
D
,
Z
∣
∣
Y
−
D
Z
∣
∣
F
2
+
λ
Ω
(
Z
)
s
.
t
.
∣
∣
d
i
∣
∣
2
2
≤
1
(D^*, Z^*) = min_{D,Z} ||Y-DZ||_F^2 + \lambda\Omega(Z) s.t. ||d_i||_2^2 \leq 1
(
D
∗
,
Z
∗
)
=
mi
n
D
,
Z
∣∣
Y
−
D
Z
∣
∣
F
2
+
λ
Ω
(
Z
)
s
.
t
.∣∣
d
i
∣
∣
2
2
≤
1
其中
∣
∣
Y
−
D
Z
∣
∣
F
2
||Y-DZ||_F^2
∣∣
Y
−
D
Z
∣
∣
F
2
是reconstruction error
Ω
(
Z
)
=
∑
i
,
j
W
i
j
∣
∣
z
i
−
z
j
∣
∣
2
2
\Omega(Z) = \sum_{i,j} W_{ij}||z_i - z_j||_2^2
Ω
(
Z
)
=
∑
i
,
j
W
ij
∣∣
z
i
−
z
j
∣
∣
2
2
当
y
i
y_i
y
i
和
y
j
y_j
y
j
是最近邻时,$W_{ij}$为1,否则为0
从而最小化最近邻的representation z的差异
Trick Result
Softmax loss VS Multi loss: 76.6% -> 83.7%(Market1501)
一致的Dropout VS 随机的Dropout: 80.8%-> 83.7% (Market1501)
Two-stepped VS one-stepped: 47.6%->56.3%(VIPeR)
Supervised Transfer Learning Result
DataSet
State of the art
Transfer
CUHK03
75.3
85.4
Market1501
82.21
83.7
VIPeR
53.5
56.3
PRID
40.9
43.6
CUHK01
86.6
93.2
(表中都是top1准确率)
Unsupervised Transfer Learning Result
DataSet
State of the art
Transfer
VIPeR
33.5
45.1
PRID
25.0
36.2
CUHK01
41.0
68.8
Compare with other unsupervised method
使用其他无监督方法进行实验对比
Method
Top1 acc
Self-training
42.8
SubSpace
42.3
Transfer
45.1
CNN+AutoEncoder
36.4
Adversarial
22.8
其中SubSpace为只使用Co-Model,不使用CNN模型,Self-training为只使用CNN模型,Transfer是两者结合的Co-training。
总体来说这种无监督的方法取得了比较好的效果,在小数据集上甚至超过了有监督的效果。
如果觉得我的文章对你有帮助,可以前往github点个
star
以前
Camera topology and Person Re-id
下一个
Evaluate
最近更新
3yr ago
复制链接
内容
Transfer Learning
Fine tuning一般步骤
论文核心模型
Unsupervised Transfer Learning
Self-training
Co-training
Co-Model
Trick Result
Supervised Transfer Learning Result
Unsupervised Transfer Learning Result
Compare with other unsupervised method