数据工程系列精讲(第三讲): Data-centric AI 之特征工程

亚马逊云科技
0
0
{"value":"#### **前言:**\n\n在 Data-centric AI 之特征工程第二讲中,我们介绍了特征预处理的三个子步骤即样本类别不均衡处理,连续特征离散化和数值型 category 特征编码。今天我们接着介绍特征预处理以及特征工程的其他步骤。\n\n### **特征预处理之特征缩放**\n\n当样本的不同特征的取值幅度范围具有不同量级时,数量级的差异将导致量级较大的特征占据主导地位,而特征缩放就是用来统一数据集中的特征的值的幅度变化范围的方法,主要针对的是连续特征。\n\n我们来看一下特征缩放的作用(假设两个特征的幅度变化有数量级的差别),如下图:\n![image.png](https://dev-media.amazoncloud.cn/a00f283037804b549b7042daac763d19_image.png)\n\n左上图是针对两个特征并且未作特征缩放的某个模型的目标函数关于2个模型参数的等高线,右上图是做完特征缩放的。可以看出右上图最优解的寻优过程明显会变得平缓,更容易正确的收敛到最优解;也就是说做完特征缩放,梯度下降不容易震荡,能更快收敛。特征缩放的缺点是,容易让特征失真,可能丢失对训练模型一些重要的信息。\n\n就像上面提到的特征缩放有缺点,因此先不要进行特征缩放(简单就是美,这个基本上可以认为是特征工程的通用准则,因为任何特征处理步骤都可能带入一些噪音),发现模型效果不好再尝试。\n\n如果样本的所有特征的幅度范围都具有同样的量级,先不做特征缩放。根据之后是否需要做特征降维分情况讨论,如果选择用 **PCA(主成分分析)** 做特征降维,在当前步骤只需要做中心化(即特征值减去均值作为新的特征值,因此新特征的均值为0),不做其他特征缩放,如果选择 LDA(线性判别分析)做特征降维,在当前步骤既不需要做中心化也不做其他的特征缩放。\n\n之后如果选择对于数据尺寸/幅度不敏感的基于 tree 的模型,先忽略该步骤,最后再对原特征或者特征降维后得到的新特征做特征缩放。注意,**深度学习模型对特征值的尺度是比较敏感的**(因为它用的是梯度下降方法来学习参数的),因此在使用深度学习模型建模的时候,特征缩放是经常需要做的。\n\n特征缩放常用的方法\n![image.png](https://dev-media.amazoncloud.cn/eea1aa5b31844e8a84c045bf7eb14505_image.png)\n了解更多RobustScaler信息:\n[https://scikit-learn.org/stable/modules/generated/sklearn.preprocessing.RobustScaler.html](https://scikit-learn.org/stable/modules/generated/sklearn.preprocessing.RobustScaler.html)\n\n实践中,经常会遇到选择标准化方法还是归一化方法的问题。如果特征稳定,不存在极端的最大值最小值,用归一化。如果特征存在异常值或者较多噪音,用**标准化**(它间接通过中心化来降低异常值和噪音的影响)或**基于分位数的规范化**,最好的方式还是线上 **AB test** 看对应的效果。\n\n### **特征生成**\n\n**特征生成的目的是为了把人的先验知识通过特征的方式注入模型中**。特征生成可以贯穿在整个ML项目的生命周期中:最开始时候,需要从各种日志(比如用户点击日志)和数据库表(比如用户属性表和物品属性表)中抽取并加工出原始特征。接着可能需要对原始特征做数据探索或分析然后生成一些新的特征替换或追加到原始特征。\n\n在数据探索/分析之后得到的特征可能仍然很少,这个时候可以考虑增加一些新的特征。如果在模型训练后发现欠拟合,这个时候可以考虑增加一些新的特征(虽然本文中特征生成放在了特征预处理之后,但二者其实没有什么顺序依次关系)。\n\n我们应该优先使用直接观测或收集/抽取到的特征,而不是生成特征。如果模型性能不好,再考虑特征生成。对于聚类任务,尽量少的生成特征,因为聚类没有明确目标,而生成的特征又是目的性的,所以二者有冲突。对于分类和回归任务,相对来说可以多创造一些特征,分类和回归任务的目标明确,因此可以把人工对任务的理解和知识建模为特征,有助于更好的达成目标任务。\n\n特征生成的常用方法:\n![image.png](https://dev-media.amazoncloud.cn/6cbc18e2ecdb4017a0f6e57f44dca360_image.png)\n![image.png](https://dev-media.amazoncloud.cn/51379f43753a40b79e783e492a324116_image.png)\n\nPolynomialFeatures :\n[https://scikit-learn.org/stable/modules/generated/sklearn.preprocessing.PolynomialFeatures.html](https://scikit-learn.org/stable/modules/generated/sklearn.preprocessing.PolynomialFeatures.html)\n\nDeep & Cross network:\n[https://arxiv.org/abs/1708.05123](https://arxiv.org/abs/1708.05123)\n\ntsfresh:\n[https://tsfresh.readthedocs.io/en/latest/](\\nhttps://tsfresh.readthedocs.io/en/latest/)\n\nfeaturetools :\n[https://www.featuretools.com/](https://www.featuretools.com/)\n\n### **特征选择**\n\n**特征选择即从给定的特征集合中选出可能的重要特征子集的过程。**\n\n**首先在现实任务中可能会遇到维度灾难问题**,这往往是由于对高基数的 category 特征作了 One-hot 向量造成的,也可能是进行了特征交叉后导致的维度灾难,这个时候要考虑这样的两个特征交叉是否合理以及考虑利用深度学习模型来做特征交叉。\n\n如果能从中选择出重要的特征,使得后续学习过程仅仅需要在一部分特征上进行,那么维度灾难问题会大大减轻。从这个意义上讲,**特征选择与特征降维有相似的动机。事实上它们是传统[机器学习](https://aws.amazon.com/cn/machine-learning/?trk=cndc-detail)处理高维数据的两大主流技术**。\n\n就目前来讲,在实际的ML项目中,除了在数据探索阶段会考虑特征的方差选择法,两两特征之间的相关性,特征与目标变量之间的相关性来进行可能的特征选择外,特征选择的其他方法和特征降维几乎很少用到,可能是因为实际项目中更多时候是原始特征相对比较少,高基数的 category 特征我们有更好的办法来处理(比如用 LightGBM 或者深度学习模型)。\n\n我们这里为了特征工程方法论的完整性,还是需要把特征选择和特征降维简单介绍一下,但是我们要知道在实际项目中他们不是重点。\n\n**其次,去除不相关特征往往会降低学习任务的难度。**\n\n特征选择可能会降低模型的预测能力(因为被剔除的特征中可能包含了有效的信息,抛弃了这部分信息可能会一定程度上降低预测准确率),这是计算复杂度和预测能力之间的折衷。\n\n使用特征选择的流程:\n![image.png](https://dev-media.amazoncloud.cn/084bfa97bb9f41eeaadf903d7844f5d7_image.png)\n\n特征选择方法(除了方差选择法,这里提到的其他方法都是对于有label的数据进行的):\n\n![image.png](https://dev-media.amazoncloud.cn/86f0df06513745dcb7826662a3473219_image.png)\n\nFilter 方法与 Wrapper 方法的区别在于 **Filter 方法不考虑后续的学习器,**而 **Wrapper 方法直接把最终将要使用的学习器的性能作为特征子集的评价准则**,其目的就是为给定学习器选择最有利于其性能且量身定做的特征子集。\n\nWrapper 方法优点是由于直接针对特定学习器进行优化,从最终学习器性能来看比 filter 方法更好,缺点是需要多次训练学习器,因此计算开销通常比 filter 方法大得多。\n\n此外,在 Wrapper 方法中,用来做特征选择的[机器学习](https://aws.amazon.com/cn/machine-learning/?trk=cndc-detail)模型和之后专门用来训练的[机器学习](https://aws.amazon.com/cn/machine-learning/?trk=cndc-detail)模型是同一种,而在 embedded 方法中,用来做特征选择的[机器学习](https://aws.amazon.com/cn/machine-learning/?trk=cndc-detail)模型和之后专门用来做训练的[机器学习](https://aws.amazon.com/cn/machine-learning/?trk=cndc-detail)模型可以是不同的。\n\n### **特征降维**\n\n到了这个步骤,如果特征维度过大,会导致计算量大,训练时间长,模型的容量太大,模型容易过拟合。这个时候要首先考虑特征维度这么高是否合理,是否是因为 one-hot 向量导致的,是否可以做 embedding,之后再考虑降低特征维度。\n\n特征降维是有假设的,即人们观测或者收集到的数据样本虽然是高维的,但是与学习任务密切相关的也许仅仅是某个低维分布——即高维空间中的一个低维“嵌入”。**当前主流的特征降维的方法都是针对连续性特征的**。\n\n关于降维的效果,没有很好的直接评价指标,通常是比较降维前后学习器的性能,如果模型性能有所提高(尤其是模型的线上效果),则认为降维可能起了作用。也可以将维数降至二维或者三维,然后通过可视化技术来判断降维效果。\n\n关于如何选择降维到多少的问题,把这个维数当作超参数来选择,根据不同的维数使用 PCA 降维后看学习器的性能(尤其是线上效果),性能最好的那个对应的 PCA 的维数可能就是应该降到的维数,或者按照保留原始信息的百分比来设置。\n\n常见的降维方法的划分如下图:\n![image.png](https://dev-media.amazoncloud.cn/de2b35aba5f04274a8ee4ad1df867c49_image.png)\n\n一般情况下选择非生成式方法进行降维,在需要生成新样本的情况下,生成式方法是更好或唯一的选择。PCA 是讨论的比较多的降维算法,我们下面简单介绍 PCA 和 LDA 两个算法。\n\n**PCA的原理:**\n\n把原先的 n 个特征用数目更少的 m 个特征取代,新特征是旧特征的线性组合,尽量使新的 m 个特征互不相关,目标是最大化投影后的方差(即样本在这个投影方向最发散)。从另外一个角度来说,目标是让重构误差最小,即从变换后的低维空间再投影回原始空间后与原始样本距离最小。\n\nPCA 有两个假设,一是假设不同的特征可能包含了冗余的信息,通过线性组合原始特征,从而去掉一些冗余的或者不重要的特征,保留重要的特征;二是假设重构误差符合高斯分布( PCA 并不假设数据本身符合高斯分布,为了计算方便,概率 PCA 是假设数据本身以及隐变量本身都是高斯分布)。\n\nPCA 对训练集拟合完会生成投影矩阵,并保存训练集的每个特征的平均值,当对新的数据(包括验证集,测试集以及将来才能获得的数据)进行降维时,利用保存的每个特征的平均值来进行中心化,然后与投影矩阵运算生成降维后的结果。\n\n**LDA 的原理:** \n\n将带有 label 的数据点,通过投影的方法,投影到维度更低的空间中,使得投影后的点,会形成按类别区分一簇一簇的情况,相同类别的点将会在投影后的空间中更接近 。\n\n目标是使得类别内的点距离越近越好(集中),类别间的点越远越好。LDA做降维时并没有假设样本数据符合高斯分布。\n\n**PCA 和 LDA 的相似点是两者均可以对数据进行降维,均使用了矩阵特征分解的思想,两者都只是适合线性的场景,两者都不适合对非高斯分布样本进行降维(尽管这两个算法在降维时并不假设数据本身符合高斯分布)**。\n\n![image.png](https://dev-media.amazoncloud.cn/5640ff5b6c194bcba63cca792bf4ee51_image.png)\n\nPCA 和 LDA 的不同点:\n![image.png](https://dev-media.amazoncloud.cn/d991016e30564b25a9e5069679596c1c_image.png)\n\n#### **总结**\n\n算法工程师在[机器学习](https://aws.amazon.com/cn/machine-learning/?trk=cndc-detail)项目开发过程中,除了关注模型本身,应该花更多的时间在**特征工程**和**样本工程**上,发现线上效果不好的时候,第一时间去检查样本和特征,也就是先调样本和特征,然后再调模型,在换更复杂的模型之前,一定要先考虑特征工程是否做到位了。\n\nData-centric AI 之特征工程到此全部介绍完毕,我们用了三讲的篇幅介绍特征工程相关的概念,特征的处理步骤以及相关的实践知识。\n\n到这里,相信你已经更加感受到特征工程的重要性了。和特征工程相对的就是样本工程,我们接下来将介绍 **Data-centric AI 之样本工程**。感谢大家的耐心阅读。\n\n##### **本篇作者**\n**梁宇辉**\n亚马逊云科技\n[机器学习](https://aws.amazon.com/cn/machine-learning/?trk=cndc-detail)产品技术专家\n\n负责基于亚马逊云科技的[机器学习](https://aws.amazon.com/cn/machine-learning/?trk=cndc-detail)方案的咨询与设计,专注于[机器学习](https://aws.amazon.com/cn/machine-learning/?trk=cndc-detail)的推广与应用,深度参与了很多真实客户的[机器学习](https://aws.amazon.com/cn/machine-learning/?trk=cndc-detail)项目的构建以及优化。对于深度学习模型分布式训练,推荐系统和计算广告等领域具有丰富经验。\n\n[阅读原文](https://github.com/yuhuiaws/ML-study/tree/main/)\n\n","render":"<h4><a id=\\"_0\\"></a><strong>前言:</strong></h4>\\n<p>在 Data-centric AI 之特征工程第二讲中,我们介绍了特征预处理的三个子步骤即样本类别不均衡处理,连续特征离散化和数值型 category 特征编码。今天我们接着介绍特征预处理以及特征工程的其他步骤。</p>\n<h3><a id=\\"_4\\"></a><strong>特征预处理之特征缩放</strong></h3>\\n<p>当样本的不同特征的取值幅度范围具有不同量级时,数量级的差异将导致量级较大的特征占据主导地位,而特征缩放就是用来统一数据集中的特征的值的幅度变化范围的方法,主要针对的是连续特征。</p>\n<p>我们来看一下特征缩放的作用(假设两个特征的幅度变化有数量级的差别),如下图:<br />\\n<img src=\\"https://dev-media.amazoncloud.cn/a00f283037804b549b7042daac763d19_image.png\\" alt=\\"image.png\\" /></p>\n<p>左上图是针对两个特征并且未作特征缩放的某个模型的目标函数关于2个模型参数的等高线,右上图是做完特征缩放的。可以看出右上图最优解的寻优过程明显会变得平缓,更容易正确的收敛到最优解;也就是说做完特征缩放,梯度下降不容易震荡,能更快收敛。特征缩放的缺点是,容易让特征失真,可能丢失对训练模型一些重要的信息。</p>\n<p>就像上面提到的特征缩放有缺点,因此先不要进行特征缩放(简单就是美,这个基本上可以认为是特征工程的通用准则,因为任何特征处理步骤都可能带入一些噪音),发现模型效果不好再尝试。</p>\n<p>如果样本的所有特征的幅度范围都具有同样的量级,先不做特征缩放。根据之后是否需要做特征降维分情况讨论,如果选择用 <strong>PCA(主成分分析)</strong> 做特征降维,在当前步骤只需要做中心化(即特征值减去均值作为新的特征值,因此新特征的均值为0),不做其他特征缩放,如果选择 LDA(线性判别分析)做特征降维,在当前步骤既不需要做中心化也不做其他的特征缩放。</p>\\n<p>之后如果选择对于数据尺寸/幅度不敏感的基于 tree 的模型,先忽略该步骤,最后再对原特征或者特征降维后得到的新特征做特征缩放。注意,<strong>深度学习模型对特征值的尺度是比较敏感的</strong>(因为它用的是梯度下降方法来学习参数的),因此在使用深度学习模型建模的时候,特征缩放是经常需要做的。</p>\\n<p>特征缩放常用的方法<br />\\n<img src=\\"https://dev-media.amazoncloud.cn/eea1aa5b31844e8a84c045bf7eb14505_image.png\\" alt=\\"image.png\\" /><br />\\n了解更多RobustScaler信息:<br />\\n<a href=\\"https://scikit-learn.org/stable/modules/generated/sklearn.preprocessing.RobustScaler.html\\" target=\\"_blank\\">https://scikit-learn.org/stable/modules/generated/sklearn.preprocessing.RobustScaler.html</a></p>\\n<p>实践中,经常会遇到选择标准化方法还是归一化方法的问题。如果特征稳定,不存在极端的最大值最小值,用归一化。如果特征存在异常值或者较多噪音,用<strong>标准化</strong>(它间接通过中心化来降低异常值和噪音的影响)或<strong>基于分位数的规范化</strong>,最好的方式还是线上 <strong>AB test</strong> 看对应的效果。</p>\\n<h3><a id=\\"_26\\"></a><strong>特征生成</strong></h3>\\n<p><strong>特征生成的目的是为了把人的先验知识通过特征的方式注入模型中</strong>。特征生成可以贯穿在整个ML项目的生命周期中:最开始时候,需要从各种日志(比如用户点击日志)和数据库表(比如用户属性表和物品属性表)中抽取并加工出原始特征。接着可能需要对原始特征做数据探索或分析然后生成一些新的特征替换或追加到原始特征。</p>\\n<p>在数据探索/分析之后得到的特征可能仍然很少,这个时候可以考虑增加一些新的特征。如果在模型训练后发现欠拟合,这个时候可以考虑增加一些新的特征(虽然本文中特征生成放在了特征预处理之后,但二者其实没有什么顺序依次关系)。</p>\n<p>我们应该优先使用直接观测或收集/抽取到的特征,而不是生成特征。如果模型性能不好,再考虑特征生成。对于聚类任务,尽量少的生成特征,因为聚类没有明确目标,而生成的特征又是目的性的,所以二者有冲突。对于分类和回归任务,相对来说可以多创造一些特征,分类和回归任务的目标明确,因此可以把人工对任务的理解和知识建模为特征,有助于更好的达成目标任务。</p>\n<p>特征生成的常用方法:<br />\\n<img src=\\"https://dev-media.amazoncloud.cn/6cbc18e2ecdb4017a0f6e57f44dca360_image.png\\" alt=\\"image.png\\" /><br />\\n<img src=\\"https://dev-media.amazoncloud.cn/51379f43753a40b79e783e492a324116_image.png\\" alt=\\"image.png\\" /></p>\n<p>PolynomialFeatures :<br />\\n<a href=\\"https://scikit-learn.org/stable/modules/generated/sklearn.preprocessing.PolynomialFeatures.html\\" target=\\"_blank\\">https://scikit-learn.org/stable/modules/generated/sklearn.preprocessing.PolynomialFeatures.html</a></p>\\n<p>Deep &amp; Cross network:<br />\\n<a href=\\"https://arxiv.org/abs/1708.05123\\" target=\\"_blank\\">https://arxiv.org/abs/1708.05123</a></p>\\n<p>tsfresh:<br />\\n<a href=\\"https://tsfresh.readthedocs.io/en/latest/\\" target=\\"_blank\\">https://tsfresh.readthedocs.io/en/latest/</a></p>\\n<p>featuretools :<br />\\n<a href=\\"https://www.featuretools.com/\\" target=\\"_blank\\">https://www.featuretools.com/</a></p>\\n<h3><a id=\\"_51\\"></a><strong>特征选择</strong></h3>\\n<p><strong>特征选择即从给定的特征集合中选出可能的重要特征子集的过程。</strong></p>\\n<p><strong>首先在现实任务中可能会遇到维度灾难问题</strong>,这往往是由于对高基数的 category 特征作了 One-hot 向量造成的,也可能是进行了特征交叉后导致的维度灾难,这个时候要考虑这样的两个特征交叉是否合理以及考虑利用深度学习模型来做特征交叉。</p>\\n<p>如果能从中选择出重要的特征,使得后续学习过程仅仅需要在一部分特征上进行,那么维度灾难问题会大大减轻。从这个意义上讲,<strong>特征选择与特征降维有相似的动机。事实上它们是传统机器学习处理高维数据的两大主流技术</strong>。</p>\\n<p>就目前来讲,在实际的ML项目中,除了在数据探索阶段会考虑特征的方差选择法,两两特征之间的相关性,特征与目标变量之间的相关性来进行可能的特征选择外,特征选择的其他方法和特征降维几乎很少用到,可能是因为实际项目中更多时候是原始特征相对比较少,高基数的 category 特征我们有更好的办法来处理(比如用 LightGBM 或者深度学习模型)。</p>\n<p>我们这里为了特征工程方法论的完整性,还是需要把特征选择和特征降维简单介绍一下,但是我们要知道在实际项目中他们不是重点。</p>\n<p><strong>其次,去除不相关特征往往会降低学习任务的难度。</strong></p>\\n<p>特征选择可能会降低模型的预测能力(因为被剔除的特征中可能包含了有效的信息,抛弃了这部分信息可能会一定程度上降低预测准确率),这是计算复杂度和预测能力之间的折衷。</p>\n<p>使用特征选择的流程:<br />\\n<img src=\\"https://dev-media.amazoncloud.cn/084bfa97bb9f41eeaadf903d7844f5d7_image.png\\" alt=\\"image.png\\" /></p>\n<p>特征选择方法(除了方差选择法,这里提到的其他方法都是对于有label的数据进行的):</p>\n<p><img src=\\"https://dev-media.amazoncloud.cn/86f0df06513745dcb7826662a3473219_image.png\\" alt=\\"image.png\\" /></p>\n<p>Filter 方法与 Wrapper 方法的区别在于 **Filter 方法不考虑后续的学习器,**而 <strong>Wrapper 方法直接把最终将要使用的学习器的性能作为特征子集的评价准则</strong>,其目的就是为给定学习器选择最有利于其性能且量身定做的特征子集。</p>\\n<p>Wrapper 方法优点是由于直接针对特定学习器进行优化,从最终学习器性能来看比 filter 方法更好,缺点是需要多次训练学习器,因此计算开销通常比 filter 方法大得多。</p>\n<p>此外,在 Wrapper 方法中,用来做特征选择的机器学习模型和之后专门用来训练的机器学习模型是同一种,而在 embedded 方法中,用来做特征选择的机器学习模型和之后专门用来做训练的机器学习模型可以是不同的。</p>\n<h3><a id=\\"_80\\"></a><strong>特征降维</strong></h3>\\n<p>到了这个步骤,如果特征维度过大,会导致计算量大,训练时间长,模型的容量太大,模型容易过拟合。这个时候要首先考虑特征维度这么高是否合理,是否是因为 one-hot 向量导致的,是否可以做 embedding,之后再考虑降低特征维度。</p>\n<p>特征降维是有假设的,即人们观测或者收集到的数据样本虽然是高维的,但是与学习任务密切相关的也许仅仅是某个低维分布——即高维空间中的一个低维“嵌入”。<strong>当前主流的特征降维的方法都是针对连续性特征的</strong>。</p>\\n<p>关于降维的效果,没有很好的直接评价指标,通常是比较降维前后学习器的性能,如果模型性能有所提高(尤其是模型的线上效果),则认为降维可能起了作用。也可以将维数降至二维或者三维,然后通过可视化技术来判断降维效果。</p>\n<p>关于如何选择降维到多少的问题,把这个维数当作超参数来选择,根据不同的维数使用 PCA 降维后看学习器的性能(尤其是线上效果),性能最好的那个对应的 PCA 的维数可能就是应该降到的维数,或者按照保留原始信息的百分比来设置。</p>\n<p>常见的降维方法的划分如下图:<br />\\n<img src=\\"https://dev-media.amazoncloud.cn/de2b35aba5f04274a8ee4ad1df867c49_image.png\\" alt=\\"image.png\\" /></p>\n<p>一般情况下选择非生成式方法进行降维,在需要生成新样本的情况下,生成式方法是更好或唯一的选择。PCA 是讨论的比较多的降维算法,我们下面简单介绍 PCA 和 LDA 两个算法。</p>\n<p><strong>PCA的原理:</strong></p>\\n<p>把原先的 n 个特征用数目更少的 m 个特征取代,新特征是旧特征的线性组合,尽量使新的 m 个特征互不相关,目标是最大化投影后的方差(即样本在这个投影方向最发散)。从另外一个角度来说,目标是让重构误差最小,即从变换后的低维空间再投影回原始空间后与原始样本距离最小。</p>\n<p>PCA 有两个假设,一是假设不同的特征可能包含了冗余的信息,通过线性组合原始特征,从而去掉一些冗余的或者不重要的特征,保留重要的特征;二是假设重构误差符合高斯分布( PCA 并不假设数据本身符合高斯分布,为了计算方便,概率 PCA 是假设数据本身以及隐变量本身都是高斯分布)。</p>\n<p>PCA 对训练集拟合完会生成投影矩阵,并保存训练集的每个特征的平均值,当对新的数据(包括验证集,测试集以及将来才能获得的数据)进行降维时,利用保存的每个特征的平均值来进行中心化,然后与投影矩阵运算生成降维后的结果。</p>\n<p><strong>LDA 的原理:</strong></p>\\n<p>将带有 label 的数据点,通过投影的方法,投影到维度更低的空间中,使得投影后的点,会形成按类别区分一簇一簇的情况,相同类别的点将会在投影后的空间中更接近 。</p>\n<p>目标是使得类别内的点距离越近越好(集中),类别间的点越远越好。LDA做降维时并没有假设样本数据符合高斯分布。</p>\n<p><strong>PCA 和 LDA 的相似点是两者均可以对数据进行降维,均使用了矩阵特征分解的思想,两者都只是适合线性的场景,两者都不适合对非高斯分布样本进行降维(尽管这两个算法在降维时并不假设数据本身符合高斯分布)</strong>。</p>\\n<p><img src=\\"https://dev-media.amazoncloud.cn/5640ff5b6c194bcba63cca792bf4ee51_image.png\\" alt=\\"image.png\\" /></p>\n<p>PCA 和 LDA 的不同点:<br />\\n<img src=\\"https://dev-media.amazoncloud.cn/d991016e30564b25a9e5069679596c1c_image.png\\" alt=\\"image.png\\" /></p>\n<h4><a id=\\"_116\\"></a><strong>总结</strong></h4>\\n<p>算法工程师在机器学习项目开发过程中,除了关注模型本身,应该花更多的时间在<strong>特征工程</strong>和<strong>样本工程</strong>上,发现线上效果不好的时候,第一时间去检查样本和特征,也就是先调样本和特征,然后再调模型,在换更复杂的模型之前,一定要先考虑特征工程是否做到位了。</p>\\n<p>Data-centric AI 之特征工程到此全部介绍完毕,我们用了三讲的篇幅介绍特征工程相关的概念,特征的处理步骤以及相关的实践知识。</p>\n<p>到这里,相信你已经更加感受到特征工程的重要性了。和特征工程相对的就是样本工程,我们接下来将介绍 <strong>Data-centric AI 之样本工程</strong>。感谢大家的耐心阅读。</p>\\n<h5><a id=\\"_124\\"></a><strong>本篇作者</strong></h5>\\n<p><strong>梁宇辉</strong><br />\\n亚马逊云科技<br />\\n机器学习产品技术专家</p>\n<p>负责基于亚马逊云科技的机器学习方案的咨询与设计,专注于机器学习的推广与应用,深度参与了很多真实客户的机器学习项目的构建以及优化。对于深度学习模型分布式训练,推荐系统和计算广告等领域具有丰富经验。</p>\n<p><a href=\\"https://github.com/yuhuiaws/ML-study/tree/main/\\" target=\\"_blank\\">阅读原文</a></p>\n"}
目录
亚马逊云科技解决方案 基于行业客户应用场景及技术领域的解决方案
联系亚马逊云科技专家
亚马逊云科技解决方案
基于行业客户应用场景及技术领域的解决方案
联系专家
0
目录
关闭