梦里风林
  • Introduction
  • Android
    • activity
      • Activity四种启动模式
      • Intent Flag
      • 多task的应用
      • Task和回退栈
    • sqlite
      • 【源码】CursorWindow读DB
      • Sqlite在Android上的一个Bug
    • Chromium
    • ListView读取DB数据最佳实践
    • Android Project结构
    • 一个由Proguard与FastJson引起的血案
    • 琐碎的一些tips
  • Computer Vision
    • 特征提取
    • 三维视觉
    • 计算机视觉常用工具
    • 浅谈深度学习数据集设计
    • 随笔
  • Machine Learning
    • 技巧
      • FaceBook: 1 hour training ImageNet
      • L2 Norm与L2 normalize
    • 实践
      • Pytorch实验代码的亿些小细节
    • 工具
      • Tensorflow学习笔记
      • MXNet踩坑手记
      • PyTorch踩坑手记
      • PyTorch模型剪枝
      • Keras踩坑手记
      • mscnn
      • Matlab
        • Matlab Remote IPC自动化数据处理
    • Papers
      • Classification
      • Re-identification
        • CVPR2018:TFusion完全解读
        • ECCV2018:TAUDL
        • CVPR2018:Graph+reid
        • Person Re-identification
        • CVPR2016 Re-id
        • Camera topology and Person Re-id
        • Deep transfer learning Person Re-id
        • Evaluate
      • Object Detection
        • 读论文系列·干货满满的RCNN
        • 读论文系列·SPP-net
        • 读论文系列·Fast RCNN
        • 读论文系列·Faster RCNN
        • 读论文系列·YOLO
        • 读论文系列·SSD
        • 读论文系列·YOLOv2 & YOLOv3
        • 读论文系列·detection其他文章推荐
      • Depth
      • 3D vision
        • 数据集相关
        • 光流相关
      • Hashing
        • CVPR2018: SSAH
      • 大杂烩
        • CNCC2017 琐记
        • ECCV 2016 Hydra CCNN
        • CNCC2017深度学习与跨媒体智能
        • MLA2016笔记
    • 《机器学习》(周志华)读书笔记
      • 西瓜书概念整理
        • 绪论
        • 模型评估与选择
        • 线性模型
        • 决策树
        • 神经网络
        • 支持向量机
        • 贝叶斯分类器
        • 集成学习
        • 聚类
        • 降维与度量学习
        • 特征选择与稀疏学习
        • 计算学习理论
        • 半监督学习
        • 概率图模型
        • 规则学习
        • 强化学习
        • 附录
  • Java
    • java web
      • Servlet部署
      • 琐碎的tips
    • JNI
    • Note
    • Effective Java笔记
  • 后端开发
    • 架构设计
    • 数据库
    • java web
      • Servlet部署
      • 琐碎的tips
    • Spring boot
    • django
    • 分布式
  • Linux && Hardware
    • Ubuntu安装与初始配置
    • 树莓派相关
      • 树莓派3B+无线网卡监听模式
      • TP-LINK TL-WR703N v1.7 openwrt flashing
  • Python
    • django
    • 原生模块
    • 设计模式
    • 可视化
    • 常用库踩坑指南
  • web前端
    • header div固定,content div填充父容器
    • json接口资源
  • UI
  • kit
    • vim
    • git/github
      • 刷爆github小绿点
    • Markdown/gitbook
      • 琐碎知识点
      • gitbook添加disqus作为评论
      • 导出chrome书签为Markdown
      • Markdown here && 微信公众号
    • LaTex
      • LaTex琐记
    • 科学上网
    • 虚拟机
  • thinking-in-program
    • 怎样打日志
  • 我的收藏
  • 琐记
    • 论文心得
    • 深圳买房攻略
  • 赞赏支持
由 GitBook 提供支持
在本页

这有帮助吗?

  1. Machine Learning
  2. 《机器学习》(周志华)读书笔记
  3. 西瓜书概念整理

降维与度量学习

第10章 降维与度量学习

  • Page225: k近邻

    k近邻是常用的监督学习方法,主要是用某种距离度量方法来找出与测试样本最靠近的k个点,根据这k位邻居的信息来预测其分类。是“懒惰学习”。

  • Page225: 急切学习

    这种学习方法在训练阶段就对样本进行学习处理。

  • Page225: 平均法

    将这k个样本的实值的平均值作为预测的输出。

  • Page225: 最近邻分类器

    k=1,即是最近邻分类器。

  • Page226: 密采样

    训练样本的采样密度足够大,保证任意小的距离内都能找到一个训练样本,即为“密采样”。

  • Page227: 多维缩放

    多维缩放是指多维空间的样本转换到低维空间上,能够继续保持其距离。

  • Page227: 降维

    通过数学变换将高维空间投射到低维子空间。

  • Page227: 维数约简

    即降维。

  • Page227: 维数灾难(247)

    即高维情况下带来的距离计算量大、样本稀疏等问题,比如随着维度增加,计算量会呈指数增长的趋势。

  • Page229: PCA

    PCA(Principal Component Analysis,即主成分分析),可从最近重构性和最大可分性来思考PCA。

    最近重构性则是希望样本点到超平面的距离足够小,优化目标是min⁡W−tr(WTXXTW)\min_W -tr(W^TXX^TW)minW​−tr(WTXXTW) s.t.WTW=Is.t. W^TW=Is.t.WTW=I

    最大可分性则是希望样本点在该超平面的投影尽可能分开,优化目标是max⁡Wtr(WTXXTW)\max_W tr(W^TXX^TW)maxW​tr(WTXXTW) s.t.WTW=Is.t. W^TW=Is.t.WTW=I

    PCA的步骤是对所有样本进行中心化,然后计算协方差矩阵,再对协方差矩阵做特征值分解,然后取最大的d'个特征值所对应的特征向量。

  • Page229: 线性降维

    基于线性变换来进行降维的方法。

  • Page229: 主成分分析

    同PCA。

  • Page231: 奇异值分解(402)

    任意的实矩阵都可以进行分解,如A∈Rm×nA\in \mathbb{R}^{m\times n}A∈Rm×n可以分解为A=UΣVTA=U\Sigma V^TA=UΣVT,其中U是m×m阶酉矩阵;Σ是半正定m×n阶对角矩阵;而VTV^TVT,即V的共轭转置,是n×n阶酉矩阵。$u_i$称为A的左奇异值,viv_ivi​称为A的右奇异值。Σ对角线上的元素为A的奇异值。矩阵A的秩是非零奇异值的个数。

  • Page232: 本真低维空间

    对原始低维空间和降维后的低维空间进行区分,称原始采样的低维空间为本真低维空间。

  • Page232: 非线性降维

    非线性降维即是采用非线性变换的方法对数据进行降维,常用的是基于核技巧对线性降维方法进行核化。

  • Page232: 核化线性降维

    对线性降维方法进行核化,以保持其原本的低维结构。

  • Page232: 核主成分分析

    Kernelized PCA,在高维特征空间将数据投影到由d维的W确定的超平面上,z是x在高维空间上的像,假设zi=ϕ(xi)z_i=\phi (x_i)zi​=ϕ(xi​),引入核函数κ(xi,xj)=ϕ(xi)Tϕ(xj)\kappa (x_i,x_j)=\phi(x_i)^T\phi(x_j)κ(xi​,xj​)=ϕ(xi​)Tϕ(xj​),进一步用矩阵K替代,进而计算出投影矩阵。主要作用是将线性不可分的数据,映射到高维后进行划分。

  • Page234: 本真距离

    即为在原始空间上的距离。

  • Page234: 测地线距离

    测地线距离是两点之间的本真距离。

  • Page234: 等度量映射

    等度量映射认为高维空间的直线距离不能很好地衡量其距离,所以等度量映射试图让“流形”距离在降维后仍能很好保持。

  • Page234: 流形学习

    流形是在局部与欧式空间同胚的空间,所以局部可以利用欧氏距离来计算。

  • Page235: 局部线性嵌入

    保持邻域内样本的线性关系的一种方法。

  • Page237: 度量学习

    通过学习,得到合适的距离度量方法。

  • Page238: 近邻成分分析

    NCA(Neighbourhood Component Analysis,即近邻成分分析)是和KNN关联的距离度量方法,在原数据集上进行NCA距离测量,并且完成降维,然后使用KNN在低维空间上对数据进行分类。NCA主要是随机选择近邻,然后通过LOO(Leave one out)的交换检验结果来求马氏距离的变换矩阵。通过优化目标可以得到最大化正确率的距离度量矩阵。

  • Page239: 必连约束(307)

    样本必属于一个簇。

  • Page239: 勿连约束

    样本必不属于同一个簇。

  • Page240: 半监督聚类(307)

    半监督聚类的先验知识主要是样本相似度约束条件,将必连关系和勿连关系作为学习任务优化目标的约束。约束条件主要是基于约束和基于距离。前者主要是依靠用户提供的约束来实现监督指导作用,后者主要是自适应距离度量。

  • Page240: 多视图学习

    多视图学习可以看成是从多个角度去学习,比如对同一个事物用多种方法去提取其特征,就能得到其多模态的特征,然后再对多模态特征进行学习。

  • Page240: 流形假设(294)

    流行假设是指在很小的一个领域内的样本具有相似的特性,则其标签也相似。

  • Page240: 流形正则化

    在正则化项加入与流形相关的项。

上一页聚类下一页特征选择与稀疏学习

最后更新于6年前

这有帮助吗?