特征选择与稀疏学习

第11章 特征选择与稀疏学习

  • Page247: 冗余特征(redundant feature)

    在特征选择过程中,有一类特征所包含的信息能从其他特征中推演出来,这类特征成为『冗余特征』。 例如,考虑立方体对象,若已有特征『底面长』、『底面宽』,则『底面积』是冗余特征,因为它能从『底面长』和『底面宽』得到。 冗余特征很多时候不起作用,去除它们会减轻学习过程的负担。但有时又会降低学习任务的难度。例如若学习目标是估算立方体的体积,则『底面积』这个冗余特征的存在将使得体积的估算更加容易;确切地说,若某个冗余特征恰好对应了完成学习任务所需的『中心概念』,则该冗余特征是有益的。

  • Page247: 数据预处理(data preprocessing)

    现实世界中数据大体上都是不完整、不一致的脏数据,无法直接进行数据挖掘,或挖掘结果差强人意。为了提高数据挖掘的质量产生了数据预处理技术。它是指在主要的处理以前对数据进行的一些处理。 数据预处理有多种方法:数据清理,数据集成,数据变换,数据归约等。在现实机器学习任务中,特征选择也是一个重要的数据预处理过程。

  • Page247: 特征选择 & 相关特征(feature selection & relevant feature)

    对一个学习任务,给定的属性集称为特征。对当前学习任务有用的属性称为『相关特征』,没什么用的属性称为『无关特征』。从给定的特征中选出相关特征子集的过程,称为特征选择。

  • Page247: 相关特征(relevant feature)

    见特征选择。

  • Page248: 子集搜索(subset search)

  • Page248: 子集评价(subset evaluation)

  • Page249: 过滤式(filter)特征选择

  • Page250: 包裹式(wrapper)特征选择

    常见的特征选择方法之一。直接把最终将要使用的学习器的性能作为特征子集的评价准则。它的目的就是为给定学习器选择有利于其性能、『量身定做』的特征子集。 LVW(Las Vegas Wrapper)是一个典型的包裹式特征选择方法。它在拉斯维加斯方法框架下使用随机策略来进行子集搜索,并以最终分类器的误差为特征子集评价准则。计算开销很大,且有可能运行很长时间达不到停止条件。

  • Page251: 拉斯维加斯方法(Las Vegas method)

    是一种在电脑运算中永远给出正确解的随机化算法;也就是说,它总是给出正确结果,或是返回失败。 换言之,拉斯维加斯算法不赌结果的正确性,而是赌运算所用资源。它的一个显著特征是它所作的随机性决策有可能导致算法找不到所需的解。一个简单的例子是随机快速排序,他的中心点虽然是随机选择的,但排序结果永远一致。

  • Page251: 蒙特卡洛方法(340,384)(Monte Carlo method)

    也称统计模拟方法,是二十世纪四十年代由于科学技术的发展和电子计算机的发明,而提出的一种以概率统计理论为指导、使用随机数来解决问题的数值计算方法。

  • Page252: LASSO(261)

  • Page252: Tikhonov 正则化(L2 正则化)

  • Page252: 岭回归(ridge regression)

  • Page252: 嵌入式(embedding)特征选择

    将特征选择过程与学习器训练过程融为一体,两者在同一个优化过程中完成,即在学习器训练过程中自动地进行了特征选择。

  • Page253: L1 正则化

  • Page253: L2正则化

    见 Tikhonov 正则化。

  • Page253: Lipschitz 条件

  • Page253: 近端梯度下降(259)(Proximal Gradient Descent)

  • Page255: 码书学习 & 字典学习(codebook & dictionary learning)

  • Page255: 稀疏编码(sparse coding)

    字典学习亦称为稀疏编码,后者更侧重于对样本进行稀疏表达的过程。两者通常在同一个优化求解过程中完成。

  • Page255: 字典学习(dictionary learning)

    同码书学习。

  • Page257: 压缩感知(compressed sensing)

    压缩感知(Compressed sensing),也被称为压缩采样(Compressive sampling)或稀疏采样(Sparse sampling),是一种寻找欠定线性系统的稀疏解的技术。在现实任务中,我们常希望根据部分信息来恢复全部信息,压缩感知就是为处理此类问题提供了方法。 压缩感知关注如何利用信号本身所具有的稀疏性,从部分观测样本中恢复信号。通常认为,压缩感知分为感知测量和重构恢复两个阶段。

  • Page259: 局部线性嵌入(Locally Linear Embedding) 无。 局部线性嵌入(Locally Linear Embedding)是一种非常重要的降维方法。和传统的 PCA,LDA 等关注样本方差的降维方法相比,LLE 关注于降维时保持样本局部的线性特征,由于 LLE 在降维时保持了样本的局部特征,它广泛的用于图像图像识别,高维数据可视化等领域。

  • Page259: 协同过滤(collaborative filtering)

    利用某兴趣相投、拥有共同经验之群体的喜好来推荐使用者感兴趣的资讯,个人通过合作的机制给予资讯相当程度的回应(如评分)并记录下来以达到过滤的目的进而帮助别人筛选资讯,回应不一定仅限于特别感兴趣的,特别不感兴趣资讯的记录也相当重要。分为以使用者为基础的协同过滤、以项目为基础的协同过滤和以模型为基础的协同过滤。

  • Page260: 核范数 & 迹范数(nuclear norm & trace norm)

    矩阵奇异值之和。

  • Page260: 迹范数(trace norm)

    同核范数。

最后更新于