13 | 数据变换:考试成绩要求正态分布合理么?
下载APP
关闭
渠道合作
推荐作者
13 | 数据变换:考试成绩要求正态分布合理么?
2019-01-11 陈旸 来自北京
《数据分析实战45讲》
课程介绍
讲述:陈旸
时长10:19大小9.46M
上一讲中我给你讲了数据集成,今天我来讲下数据变换。
如果一个人在百分制的考试中得了 95 分,你肯定会认为他学习成绩很好,如果得了 65 分,就会觉得他成绩不好。如果得了 80 分呢?你会觉得他成绩中等,因为在班级里这属于大部分人的情况。
为什么会有这样的认知呢?这是因为我们从小到大的考试成绩基本上都会满足正态分布的情况。什么是正态分布呢?正态分布也叫作常态分布,就是正常的状态下,呈现的分布情况。
比如你可能会问班里的考试成绩是怎样的?这里其实指的是大部分同学的成绩如何。以下图为例,在正态分布中,大部分人的成绩会集中在中间的区域,少部分人处于两头的位置。正态分布的另一个好处就是,如果你知道了自己的成绩,和整体的正态分布情况,就可以知道自己的成绩在全班中的位置。
另一个典型的例子就是,美国 SAT 考试成绩也符合正态分布。而且美国本科的申请,需要中国高中生的 GPA 在 80 分以上(百分制的成绩),背后的理由也是默认考试成绩属于正态分布的情况。
为了让成绩符合正态分布,出题老师是怎么做的呢?他们通常可以把考题分成三类:
第一类:基础题,占总分 70%,基本上属于送分题;
第二类:灵活题,基础范围内 + 一定的灵活性,占 20%;
第三类:难题,涉及知识面较广的难题,占 10%;
那么,你想下,如果一个出题老师没有按照上面的标准来出题,而是将第三类难题比重占到了 70%,也就是我们说的“超纲”,结果会是怎样呢?
你会发现,大部分人成绩都“不及格”,最后在大家激烈的讨论声中,老师会将考试成绩做规范化处理,从而让成绩满足正态分布的情况。因为只有这样,成绩才更具有比较性。所以正态分布的成绩,不仅可以让你了解全班整体的情况,还能了解每个人的成绩在全班中的位置。
数据变换在数据分析中的角色
我们再来举个例子,假设 A 考了 80 分,B 也考了 80 分,但前者是百分制,后者 500 分是满分,如果我们把从这两个渠道收集上来的数据进行集成、挖掘,就算使用效率再高的算法,结果也不是正确的。因为这两个渠道的分数代表的含义完全不同。
所以说,有时候数据变换比算法选择更重要,数据错了,算法再正确也是错的。你现在可以理解为什么 80% 的工作时间会花在前期的数据准备上了吧。
那么如何让不同渠道的数据统一到一个目标数据库里呢?这样就用到了数据变换。
在数据变换前,我们需要先对字段进行筛选,然后对数据进行探索和相关性分析,接着是选择算法模型(这里暂时不需要进行模型计算),然后针对算法模型对数据的需求进行数据变换,从而完成数据挖掘前的准备工作。
所以你从整个流程中可以看出,数据变换是数据准备的重要环节,它通过数据平滑、数据聚集、数据概化和规范化等方式将数据转换成适用于数据挖掘的形式。
我来介绍下这些常见的变换方法:
数据平滑:去除数据中的噪声,将连续数据离散化。这里可以采用分箱、聚类和回归的方式进行数据平滑,我会在后面给你讲解聚类和回归这两个算法;
数据聚集:对数据进行汇总,在 SQL 中有一些聚集函数可以供我们操作,比如 Max() 反馈某个字段的数值最大值,Sum() 返回某个字段的数值总和;
数据概化:将数据由较低的概念抽象成为较高的概念,减少数据复杂度,即用更高的概念替代更低的概念。比如说上海、杭州、深圳、北京可以概化为中国。
数据规范化:使属性数据按比例缩放,这样就将原来的数值映射到一个新的特定区域中。常用的方法有最小—最大规范化、Z—score 规范化、按小数定标规范化等,我会在后面给你讲到这些方法的使用;
属性构造:构造出新的属性并添加到属性集中。这里会用到特征工程的知识,因为通过属性与属性的连接构造新的属性,其实就是特征工程。比如说,数据表中统计每个人的英语、语文和数学成绩,你可以构造一个“总和”这个属性,来作为新属性。这样“总和”这个属性就可以用到后续的数据挖掘计算中。
在这些变换方法中,最简单易用的就是对数据进行规范化处理。下面我来给你讲下如何对数据进行规范化处理。
数据规范化的几种方法
1. Min-max 规范化
Min-max 规范化方法是将原始数据变换到[0,1]的空间中。用公式表示就是:
新数值 =(原数值 - 极小值)/(极大值 - 极小值)。
2. Z-Score 规范化
假设 A 与 B 的考试成绩都为 80 分,A 的考卷满分是 100 分(及格 60 分),B 的考卷满分是 500 分(及格 300 分)。虽然两个人都考了 80 分,但是 A 的 80 分与 B 的 80 分代表完全不同的含义。
那么如何用相同的标准来比较 A 与 B 的成绩呢?Z-Score 就是用来可以解决这一问题的。
我们定义:新数值 =(原数值 - 均值)/ 标准差。
假设 A 所在的班级平均分为 80,标准差为 10。B 所在的班级平均分为 400,标准差为 100。那么 A 的新数值 =(80-80)/10=0,B 的新数值 =(80-400)/100=-3.2。
那么在 Z-Score 标准下,A 的成绩会比 B 的成绩好。
我们能看到 Z-Score 的优点是算法简单,不受数据量级影响,结果易于比较。不足在于,它需要数据整体的平均值和方差,而且结果没有实际意义,只是用于比较。
3. 小数定标规范化
小数定标规范化就是通过移动小数点的位置来进行规范化。小数点移动多少位取决于属性 A 的取值中的最大绝对值。
举个例子,比如属性 A 的取值范围是 -999 到 88,那么最大绝对值为 999,小数点就会移动 3 位,即新数值 = 原数值 /1000。那么 A 的取值范围就被规范化为 -0.999 到 0.088。
上面这三种是数值规范化中常用的几种方式。
Python 的 SciKit-Learn 库使用
SciKit-Learn 是 Python 的重要机器学习库,它帮我们封装了大量的机器学习算法,比如分类、聚类、回归、降维等。此外,它还包括了数据变换模块。
我现在来讲下如何使用 SciKit-Learn 进行数据规范化。
1. Min-max 规范化
我们可以让原始数据投射到指定的空间[min, max],在 SciKit-Learn 里有个函数 MinMaxScaler 是专门做这个的,它允许我们给定一个最大值与最小值,然后将原数据投射到[min, max]中。默认情况下[min,max]是[0,1],也就是把原始数据投放到[0,1]范围内。
我们来看下下面这个例子:
运行结果:
2. Z-Score 规范化
在 SciKit-Learn 库中使用 preprocessing.scale() 函数,可以直接将给定数据进行 Z-Score 规范化。
运行结果:
这个结果实际上就是将每行每列的值减去了平均值,再除以方差的结果。
我们看到 Z-Score 规范化将数据集进行了规范化,数值都符合均值为 0,方差为 1 的正态分布。
3. 小数定标规范化
我们需要用 NumPy 库来计算小数点的位数。NumPy 库我们之前提到过。
这里我们看下运行代码:
运行结果:
数据挖掘中数据变换比算法选择更重要
在考试成绩中,我们都需要让数据满足一定的规律,达到规范性的要求,便于进行挖掘。这就是数据变换的作用。
如果不进行变换的话,要不就是维数过多,增加了计算的成本,要不就是数据过于集中,很难找到数据之间的特征。
在数据变换中,重点是如何将数值进行规范化,有三种常用的规范方法,分别是 Min-Max 规范化、Z-Score 规范化、小数定标规范化。其中 Z-Score 规范化可以直接将数据转化为正态分布的情况,当然不是所有自然界的数据都需要正态分布,我们也可以根据实际的情况进行设计,比如取对数 log,或者神经网络里采用的激励函数等。
在最后我给大家推荐了 Python 的 sklearn 库,它和 NumPy, Pandas 都是非常有名的 Python 库,在数据统计工作中起了很大的作用。SciKit-Learn 不仅可以用于数据变换,它还提供了分类、聚类、预测等数据挖掘算法的 API 封装。后面我会详细给你讲解这些算法,也会教你如何使用 SciKit-Learn 工具来完成数据挖掘算法的工作。
最后给你留道思考题吧,假设属性 income 的最小值和最大值分别是 5000 元和 58000 元。利用 Min-Max 规范化的方法将属性的值映射到 0 至 1 的范围内,那么属性 income 的 16000 元将被转化为多少?
另外数据规范化都有哪些方式,他们是如何进行规范化的?欢迎在评论区与我分享你的答案,也欢迎你把这篇文章分享给你的朋友或者同事,一起讨论一下。
分享给需要的人,Ta购买本课程,你将得18元
生成海报并分享
赞 20
提建议
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
上一篇
12 | 数据集成:这些大号一共20亿粉丝?
下一篇
14丨数据可视化:掌握数据领域的万金油技能
精选留言(53)
- 跳跳2019-01-11一、16000的位置 (16000-5000)/(58000-5000)=0.2075 代码实现如下: # coding:utf-8 from sklearn import preprocessing import numpy as np # 初始化数据,每一行表示一个样本,每一列表示一个特征 x = np.array([[5000.],[16000.],[58000.]]) # 将数据进行 [0,1] 规范化 min_max_scaler = preprocessing.MinMaxScaler() minmax_x = min_max_scaler.fit_transform(x) print(minmax_x) 输出: [[0. ] [0.20754717] [1. ]] 二、关于规范化方法 1.min-max:将数据归一化到[0,1]区间 2.z-score:将数据规范到0均值,1方差的标准正态分布上,减少老师说的百分制80和500分制80的数据值差异问题 3.小数定标规范化:将数据转化为[-1,1]区间中展开
作者回复: Good Job
共 3 条评论38 - 锦水春风2019-01-13老师,你好: 随着学习的不断加深,许多内容需要掌握理解或者编码测试,每个人多少都有疑难问题,如不能及时解决势必影响学习效果。建议对上课人员建立交流QQ群,有些问题可以互相交流学习,对仍有问题的老师可亲自回答。
作者回复: 咱们有微信群的,可以让运营同学拉你进群
共 34 条评论37 - sunny2019-01-11老师您好, Z-Score 规范化的分数转化这块,由于我目前在一家公司做产品经理,现在刚好在负责教育行业成绩分析业务,想跟你探讨下。 将学生的原始分数成绩进行转化成Z分可以进行比较一个学生历次考试之间的波动情况进步程度,或者是同一次考试的不同科目直接进行比较来判断学生的各科均衡度。 但是,这个“Z-Score”分的计算方式,目前我查到其它资料,老师文章中的列出的计算公式是属于“Z分的线性计算公式”,将整批学生的成绩都转化成Z分后,其Z分不一定能完全呈现标准的正态分布,在某些情况下做比较可信度是不高的(比如:一次考试本身的原始分数呈现负偏态,另一次考试原始成绩呈现正偏态,转化后的Z分并不一定能让偏态变成标准正态,在两次考试都处于偏态情况下,同一学生的两次考试成绩做波动进步程度分析就不大可信) 我刚查到另一种计算非线性Z分的方式: 1、先按该公式计算出百级等级分:百分等级分数(年级)=100﹣(100×年级名次-50)÷年级有效参考总人数;该百级等级分便是每个学生在该批学生的相对位置,其百分等级分数对应便是标准正态分布图的所占面积比例 2、再按该百分等级数去标准正态分布表里去查出Z-Score ,这样最终得出的Z分便是标准的正态分布,能将偏态转化成标准正态,这样就能比较同一学生的各次考试 以上是我目前的理解,还望老师指点下!!!展开共 6 条评论15
- 杨名流2019-01-20Min-max规范化的结果为什么是 [[0. 0. 0.66666667] [1. 1. 1. ] [0. 1. 0. ]] 这是怎么计算的?共 8 条评论12
- Chen2019-01-11陈老师,有几个问题需要请教一下您: 1. 数据规范化、归一化、标准化是一个概念吗?之前看到有博客还专门区分归一化、标准化,将这里的Min-max规范化强调为归一化,将Z-score规范化强调为标准化,现在学完这个我有点晕了。看sklearn官方文档Preprocessing data部分有4.3.1. Standardization, or mean removal and variance scaling¶和4.3.3 Normalization两小节内容,看得我更晕了。 2. 一般什么时候用Min-max规范化?什么时候用Z-score规范化? 3. 数据什么时候需要做规范化呢? 4. 再问细一点的,逻辑回归模型需要做数据规范化吗?决策树模型需要做数据规范化吗?展开共 1 条评论7
- 柚子2019-01-27(16000-5000)/(58000-5000) = 0.20754717 代码实现: import numpy as np from sklearn import preprocessing x = np.array([[16000],[5000],[58000]]) minmax_scale = preprocessing.MinMaxScaler().fit_transform(x) print(minmax_scale) 感觉这块的内容讲的有点浅了 有很多的细节没有讲到 比如MinMaxScaler(),fit_transform(x)这2个函数的解释,希望老师可以把sklearn库中一些相关函数详细讲解下,谢谢展开共 1 条评论4
- 林2019-01-11有时候数据变换比算法选择更重要,数据错了,算法再正确也错的。这就是为什么数据分析师80%的时间会花在前期的数据准备上了。 #数据挖掘前的准备工作 在数据变换前,需要对数据进行筛选,然后进行数据探索和相关性分析,接着选择算法模型,然后针对算法模型对数据进行数据变换,从而完成数据挖掘前的准备工作。 #数据变换的四种常见方法 1、数据平滑 去除数据噪声,将连续数据离散化。主要是用分箱、聚类和回归方式等算法进行数据平滑。 2、数据聚集 个人理解就是对数据聚合。 对数据进行汇总,比如常见的使用sql的聚合函数。 3、数据概化 个人理解就是数据维度抽象。 将数据由较低的概念抽象成为较高的概念,减少数据复杂度,即用更高的概念替代更低的概念。比如说上海、杭州、深圳、北京可以概化为中国。 4、数据规范化 常用方法:min-max规范化、Z-score规范化、按小数定标规范化。 5、属性构造 人个理解就是根据需要加字段。 #数据规范化的几种方法 1、Min-Max规范化 将原始数据变换到[0,1]的空间中。 公式:新数值=(原数值-极小值)/(极大值-极小值) 2、Z-score规范化 对不同级别的数据按相同标准来进行比较。 公式: 新数值 = (原数值-均值)/标准差 3、小数定标规范化 不知道作用是干啥? #Python 的 SciKit-Learn 库 是一个机器学习库,封装了大量的机器学习算法,比如分类、聚类、回归、降维等。另外,它还包括了上面说的数据变换模块。展开
作者回复: Good Job
共 2 条评论2 - 一个射手座的程序猿2021-04-07老师你好,这是后续报错: from numpy import show_config as show_numpy_config ImportError: cannot import name 'show_config' from 'numpy' (C:\Users\沐瑾\PycharmProjects\pythonProject\venv\numpy.py) 进程已结束,退出代码为 1 下载sklearn包时,出现的报错: ERROR:could not install packages due to an OSError:[winError 5] 拒绝访问:’C:\\Users\\沐瑾\\AppDate\\Local\\PythonSoftwareFoundation.Python.3.8_qbz5nzkfra8p0\\Loca]cache\\local-packages\\Python38\\site-packahes\\skilearn\\.linbs\\vcomp140.d11’展开
作者回复: 调用numpy报的错,先检查你当前pycharm路径下,是否有同名numpy.py的文件,把它的名字改掉;如果还是报同样的错,则降低下numpy版本。 安装sklearn报错应该是权限问题,试试pip install --user scikit-learn
1 - 夕子2021-03-151、16000经过min-max规范化以后是:(16000-5000)/(58000-5000)=0.2075 代码: from sklearn import preprocessing import numpy as np x = np.array([[16000],[5000],[58000]]) min_max_scaler = preprocessing.MinMaxScaler() minmax_x = min_max_scaler.fit_transform(x) minmax_x 2、数据规范化的方法: ①min-max规范化 ②z-score规范化 ③小数定标规范化展开
作者回复: 回答正确!!!很棒
1 - 骑行的掌柜J2020-06-30https://blog.csdn.net/weixin_41013322/article/details/107046285 重新回顾这节 补充了几个知识点 希望对大家有用1
- 王钰2019-03-11有些问题可以自己先百度一下,简单了解下函数的用法,不影响继续阅读就可以了
作者回复: 嗯嗯
1 - 杰之72019-02-11通过这一节的阅读学习,对数据的转换有了更全面的整理。数据工程师大多数的工作内容也是在处理数据清洗,集成和转换的内容。数据质量能直接影响到后续的算法建模的好坏。 对于常见的变换,有数据平滑、聚集、概化、规范化、属性构造等方法,老师在文章中主要讲述来了规范化的3种方法,Min_max规范化,Z_score,小数立标规范化,并在sklearn中加已了实现。展开
作者回复: 加油~
1 - YTY2019-01-23@杨名流 我也有这个困惑,后来发现这个是按列计算的。1
- 长毛怪^^2023-01-25 来自新疆感觉数据规范化并没有办法解决集体平庸的问题,就那Z-Score来说,假如A在甲组中取得80分的成绩,甲组满分100分,平均分80,标准差10。B在乙组中取得80分,乙组满分500分,平均分80,标准差10。A和B的得分是一样,那如何排除乙组集体平庸的情况呢?
- 打打打2022-08-19 来自上海如何进群!很多真心看不懂
- McKee Chen2020-10-13属性 income 的 16000 元将被转化为0.207547 #Min-max规范化 from sklearn import preprocessing import numpy as np #初始化数据,每一行代表一个样本,每一列代表一个特征 x = np.array([[5000,0],[16000,0],[58000,0]]) #将数据进行[0,1]规范化 min_max_scaler = preprocessing.MinMaxScaler() minmax_x = min_max_scaler.fit_transform(x) minmax_x 1.Min-max规范方法是将原始数据变换到[0,1]的空间中,公式为:新数值=(原数值-极小值)/(极大值-极小值) 2.Z-score规范化公式为:新数值=(原数值-均值)/标准差,将数据集进行了规范化,数值都符合均值为0,方差为1的正态分布 3.小数定标规范化通过移动小数点的位置来进行规范化,小数点移动的位数取决于数值最大绝对值 以前常用的是Min-Max规范化、Z-Score规范化,本次课程让我学到了新的规范方法 课后还需自己多琢磨,多练习展开
作者回复: 继续坚持!
- 咕叽咕叽2020-10-10Result [[0. ] [0.20754717] [1. ]] Show code # encoding: utf8 from sklearn import preprocessing import numpy as np x = np.array([[5000], [16000], [58000]]) min_max_scaler = preprocessing.MinMaxScaler() transition_x = min_max_scaler.fit_transform(x) print transition_x展开
- lemonlxn2020-09-18StandardScaler 相比 z-score 可能要好些,可以将不同量级的数据,投射都 均值为0,标准差为1的正态分布中
作者回复: StandardScaler 就是z-score在sklearn中的API哦
- 陶铖2020-05-23对于知识概念基本掌握了
- §mc²ompleXWr2020-05-07貌似规范化都是按列进行的(也就是以一个字段为单位)。那么可以按行,或者按照整体数据进行吗?如何操作呢?
作者回复: 需要每一列中进行规范化。因为每一列代表一个特征。