21世纪我们进入了信息时代,随之而来的高维数据越来越多。由于这些高维数据中存在很多冗余信息,或者我们只关心数据中的一部分重要的特征信息。此时对数据进行降维也越发地重要。同时,在对有类别标签的高维数据进行降维的时候,对降维的要求也就更高,在提取数据集中重要属性信息的同时,要保证数据集的类别属性。由于环境的不可预知性,采集,保存,流通过程中,数据集或多或少的惨入了噪声,噪声的引入给降维的工作带来很大的不便,得到的结果也有很大的偏差。当然可以先利用各种去除噪音的方法先对数据集进行预处理,但是考量一个降维与分类算法的重要方面是看算法的抗造性能。普通的降维分类算法如PCA,LPP等都使用利用数据点之间的距离平方来度量数据点的相似度,放大了噪音点对降维结果的影响,L1-NORM则采用了绝对值距离,不会放大噪音的影响。本文研究了L1-NORM的一般特点,然后改进现有的降维算法,通过一系列的实验对这算法的抗噪性进行验证,实验证明,经过L1-NORM改进后的降维算法与传统的降维算法相比,抗噪性能都有了较大程度的提高。同时,不仅仅只在降维的时候要考虑噪声的影响。在模糊聚类领域,通常能够将数据点到聚类中心点的距离作为衡量该点属于哪一类的重要指标,然而通常的聚类算法都使用的是欧式距离,由于欧式距离对噪声敏感的原因,我们可以利用对噪声不敏感的距离进行组合作为样本间的相似度量度,这样不仅可以在对样本集结构缺乏了解的情况下,对数据集进行有效的聚类,而且具有抗噪性。同样,我们发现在分类领域里,尤其是在迁移学习中,抗噪同样很值得研究。数据集随着时间的改变而不断地发生着微小的改变,对变化后的数据集进行分类的时候,如果这个微小的改变正是变化在最优分割面附近的话,分类的向量会发生很大变化,这样的结果显然是不合理的。本文提出了ESVM算法,在对缓慢变化后的数据集进行分类的时候,考虑到原来数据集的概率分布信息,使得分类结果在分类合理的情况下,有效地继承原数据集的经验,分割面不会变化很大,从而在一定程度上,体现了ESVM算法的抗噪性能。