Python数据分析总结(python中的数据分析)

http://www.itjxue.com  2023-03-24 21:46  来源:未知  点击次数: 

python数据分析有什么用?

随着大数据时代的来临和Python编程语言的火爆,Python数据分析早已成为现在职场人的必备核心技能。那么利用Python数据分析可以做什么呢?简单来说,可以做到的内容有很多,比如检查数据表、数据表清洗、数据预处理、数据提取和数据筛选汇总等等。下面来为大家详细讲解一下这些用处。

1、检查数据表

Python中使用shape函数来查看数据表的维度,也就是行数和列数。你可以使用info函数查看数据表的整体信息,使用dtypes函数来返回数据格式。Isnull是Python中检验空值的函数,你可以对整个数据表进行检查,也可以单独对某一列进行空值检查,返回的结果是逻辑值,包含空值返回True,不包含则返回False。使用unique函数查看唯一值,使用Values函数用来查看数据表中的数值。

2、数据表清洗

Python中处理空值的方法比较灵活,可以使用Dropna函数用来删除数据表中包含空值的数据,也可以使用fillna函数对空值进行填充。Python中dtype是查看数据格式的函数,与之对应的是astype函数,用来更改数据格式,Rename是更改列名称的函数,drop_duplicates函数删除重复值,replace函数实现数据替换。

3、数据预处理

数据预处理是对清洗完的数据进行整理以便后期的统计和分析工作,主要包括数据表的合并、排序、数值分列、数据分组及标记等工作。在Python中可以使用merge函数对两个数据表进行合并,合并的方式为inner,此外还有left、right和outer方式。使用ort_values函数和sort_index函数完成排序,使用where函数完成数据分组,使用split函数实现分列。

4、数据提取

主要是使用三个函数:loc、iloc和ix,其中loc函数按标签值进行提取,iloc按位置进行提取,ix可以同时按标签和位置进行提取。除了按标签和位置提起数据以外,还可以按具体的条件进行数据,比如使用loc和isin两个函数配合使用,按指定条件对数据进行提取。

5、数据筛选汇总

Python中使用loc函数配合筛选条件来完成筛选功能,配合sum和 count函数还能实现excel中sumif和countif函数的功能。Python中使用的主要函数是groupby和pivot_table。groupby是进行分类汇总的函数,使用方法很简单,制定要分组的列名称就可以,也可以同时制定多个列名称,groupby 按列名称出现的顺序进行分组。

以上就是总结的利用Python数据分析的用处,大家都记住了吗?既然学习Python数据分析的用处这么多,大家赶紧学习来吧!相信对大家未来的学习和工作,都会有不小的帮助。

python数据统计分析

1. 常用函数库

? scipy包中的stats模块和statsmodels包是python常用的数据分析工具,scipy.stats以前有一个models子模块,后来被移除了。这个模块被重写并成为了现在独立的statsmodels包。

?scipy的stats包含一些比较基本的工具,比如:t检验,正态性检验,卡方检验之类,statsmodels提供了更为系统的统计模型,包括线性模型,时序分析,还包含数据集,做图工具等等。

2. 小样本数据的正态性检验

(1) 用途

?夏皮罗维尔克检验法 (Shapiro-Wilk) 用于检验参数提供的一组小样本数据线是否符合正态分布,统计量越大则表示数据越符合正态分布,但是在非正态分布的小样本数据中也经常会出现较大的W值。需要查表来估计其概率。由于原假设是其符合正态分布,所以当P值小于指定显著水平时表示其不符合正态分布。

?正态性检验是数据分析的第一步,数据是否符合正态性决定了后续使用不同的分析和预测方法,当数据不符合正态性分布时,我们可以通过不同的转换方法把非正太态数据转换成正态分布后再使用相应的统计方法进行下一步操作。

(2) 示例

(3) 结果分析

?返回结果 p-value=0.029035290703177452,比指定的显著水平(一般为5%)小,则拒绝假设:x不服从正态分布。

3. 检验样本是否服务某一分布

(1) 用途

?科尔莫戈罗夫检验(Kolmogorov-Smirnov test),检验样本数据是否服从某一分布,仅适用于连续分布的检验。下例中用它检验正态分布。

(2) 示例

(3) 结果分析

?生成300个服从N(0,1)标准正态分布的随机数,在使用k-s检验该数据是否服从正态分布,提出假设:x从正态分布。最终返回的结果,p-value=0.9260909172362317,比指定的显著水平(一般为5%)大,则我们不能拒绝假设:x服从正态分布。这并不是说x服从正态分布一定是正确的,而是说没有充分的证据证明x不服从正态分布。因此我们的假设被接受,认为x服从正态分布。如果p-value小于我们指定的显著性水平,则我们可以肯定地拒绝提出的假设,认为x肯定不服从正态分布,这个拒绝是绝对正确的。

4.方差齐性检验

(1) 用途

?方差反映了一组数据与其平均值的偏离程度,方差齐性检验用以检验两组或多组数据与其平均值偏离程度是否存在差异,也是很多检验和算法的先决条件。

(2) 示例

(3) 结果分析

?返回结果 p-value=0.19337536323599344, 比指定的显著水平(假设为5%)大,认为两组数据具有方差齐性。

5. 图形描述相关性

(1) 用途

?最常用的两变量相关性分析,是用作图描述相关性,图的横轴是一个变量,纵轴是另一变量,画散点图,从图中可以直观地看到相关性的方向和强弱,线性正相关一般形成由左下到右上的图形;负面相关则是从左上到右下的图形,还有一些非线性相关也能从图中观察到。

(2) 示例

(3) 结果分析

?从图中可以看到明显的正相关趋势。

6. 正态资料的相关分析

(1) 用途

?皮尔森相关系数(Pearson correlation coefficient)是反应两变量之间线性相关程度的统计量,用它来分析正态分布的两个连续型变量之间的相关性。常用于分析自变量之间,以及自变量和因变量之间的相关性。

(2) 示例

(3) 结果分析

?返回结果的第一个值为相关系数表示线性相关程度,其取值范围在[-1,1],绝对值越接近1,说明两个变量的相关性越强,绝对值越接近0说明两个变量的相关性越差。当两个变量完全不相关时相关系数为0。第二个值为p-value,统计学上,一般当p-value0.05时,可以认为两变量存在相关性。

7. 非正态资料的相关分析

(1) 用途

?斯皮尔曼等级相关系数(Spearman’s correlation coefficient for ranked data ),它主要用于评价顺序变量间的线性相关关系,在计算过程中,只考虑变量值的顺序(rank, 值或称等级),而不考虑变量值的大小。常用于计算类型变量的相关性。

(2) 示例

(3) 结果分析

?返回结果的第一个值为相关系数表示线性相关程度,本例中correlation趋近于1表示正相关。第二个值为p-value,p-value越小,表示相关程度越显著。

8. 单样本T检验

(1) 用途

?单样本T检验,用于检验数据是否来自一致均值的总体,T检验主要是以均值为核心的检验。注意以下几种T检验都是双侧T检验。

(2) 示例

(3) 结果分析

?本例中生成了2列100行的数组,ttest_1samp的第二个参数是分别对两列估计的均值,p-value返回结果,第一列1.47820719e-06比指定的显著水平(一般为5%)小,认为差异显著,拒绝假设;第二列2.83088106e-01大于指定显著水平,不能拒绝假设:服从正态分布。

9. 两独立样本T检验

(1) 用途

?由于比较两组数据是否来自于同一正态分布的总体。注意:如果要比较的两组数据不满足方差齐性, 需要在ttest_ind()函数中添加参数equal_var = False。

(2) 示例

(3) 结果分析

?返回结果的第一个值为统计量,第二个值为p-value,pvalue=0.19313343989106416,比指定的显著水平(一般为5%)大,不能拒绝假设,两组数据来自于同一总结,两组数据之间无差异。

10. 配对样本T检验

(1) 用途

?配对样本T检验可视为单样本T检验的扩展,检验的对象由一群来自正态分布独立样本更改为二群配对样本观测值之差。它常用于比较同一受试对象处理的前后差异,或者按照某一条件进行两两配对分别给与不同处理的受试对象之间是否存在差异。

(2) 示例

(3) 结果分析

?返回结果的第一个值为统计量,第二个值为p-value,pvalue=0.80964043445811551,比指定的显著水平(一般为5%)大,不能拒绝假设。

11. 单因素方差分析

(1) 用途

?方差分析(Analysis of Variance,简称ANOVA),又称F检验,用于两个及两个以上样本均数差别的显著性检验。方差分析主要是考虑各组之间的平均数差别。

?单因素方差分析(One-wayAnova),是检验由单一因素影响的多组样本某因变量的均值是否有显著差异。

?当因变量Y是数值型,自变量X是分类值,通常的做法是按X的类别把实例成分几组,分析Y值在X的不同分组中是否存在差异。

(2) 示例

(3) 结果分析

?返回结果的第一个值为统计量,它由组间差异除以组间差异得到,上例中组间差异很大,第二个返回值p-value=6.2231520821576832e-19小于边界值(一般为0.05),拒绝原假设, 即认为以上三组数据存在统计学差异,并不能判断是哪两组之间存在差异 。只有两组数据时,效果同 stats.levene 一样。

12. 多因素方差分析

(1) 用途

?当有两个或者两个以上自变量对因变量产生影响时,可以用多因素方差分析的方法来进行分析。它不仅要考虑每个因素的主效应,还要考虑因素之间的交互效应。

(2) 示例

(3) 结果分析

?上述程序定义了公式,公式中,"~"用于隔离因变量和自变量,”+“用于分隔各个自变量, ":"表示两个自变量交互影响。从返回结果的P值可以看出,X1和X2的值组间差异不大,而组合后的T:G的组间有明显差异。

13. 卡方检验

(1) 用途

?上面介绍的T检验是参数检验,卡方检验是一种非参数检验方法。相对来说,非参数检验对数据分布的要求比较宽松,并且也不要求太大数据量。卡方检验是一种对计数资料的假设检验方法,主要是比较理论频数和实际频数的吻合程度。常用于特征选择,比如,检验男人和女人在是否患有高血压上有无区别,如果有区别,则说明性别与是否患有高血压有关,在后续分析时就需要把性别这个分类变量放入模型训练。

?基本数据有R行C列, 故通称RC列联表(contingency table), 简称RC表,它是观测数据按两个或更多属性(定性变量)分类时所列出的频数表。

(2) 示例

(3) 结果分析

?卡方检验函数的参数是列联表中的频数,返回结果第一个值为统计量值,第二个结果为p-value值,p-value=0.54543425102570975,比指定的显著水平(一般5%)大,不能拒绝原假设,即相关性不显著。第三个结果是自由度,第四个结果的数组是列联表的期望值分布。

14. 单变量统计分析

(1) 用途

?单变量统计描述是数据分析中最简单的形式,其中被分析的数据只包含一个变量,不处理原因或关系。单变量分析的主要目的是通过对数据的统计描述了解当前数据的基本情况,并找出数据的分布模型。

?单变量数据统计描述从集中趋势上看,指标有:均值,中位数,分位数,众数;从离散程度上看,指标有:极差、四分位数、方差、标准差、协方差、变异系数,从分布上看,有偏度,峰度等。需要考虑的还有极大值,极小值(数值型变量)和频数,构成比(分类或等级变量)。

?此外,还可以用统计图直观展示数据分布特征,如:柱状图、正方图、箱式图、频率多边形和饼状图。

15. 多元线性回归

(1) 用途

?多元线性回归模型(multivariable linear regression model ),因变量Y(计量资料)往往受到多个变量X的影响,多元线性回归模型用于计算各个自变量对因变量的影响程度,可以认为是对多维空间中的点做线性拟合。

(2) 示例

(3) 结果分析

?直接通过返回结果中各变量的P值与0.05比较,来判定对应的解释变量的显著性,P0.05则认为自变量具有统计学意义,从上例中可以看到收入INCOME最有显著性。

16. 逻辑回归

(1) 用途

?当因变量Y为2分类变量(或多分类变量时)可以用相应的logistic回归分析各个自变量对因变量的影响程度。

(2) 示例

(3) 结果分析

?直接通过返回结果中各变量的P值与0.05比较,来判定对应的解释变量的显著性,P0.05则认为自变量具有统计学意义。

自学3年Python的我成了数据分析师,总结成一张思维导图

大家好,我是一名普通毕业生,现就职于某互联网公司。之前很多同学问我“ 为什么自学3年Python,最后却成为了数据分析师 ?”

首先肯定是数据分析师的前景和薪资条件,打动了我

下面是我的学习之路,附带一些必备学习的资料,可以 免费领取 ,相信感兴趣的你看完也可以找到自己的方向。

众所周知:Python是当今最火的编程语言之一,各大招聘网站上都会要求求职者会这门语言,并且它很容易上手,业务面宽泛,像Web网页工程师、网络爬虫工程师、自动化运维、自动化测试、 游戏 开发、数据分析、AI等等。

我们首先明确一个大的方向,知道自己以后要做什么。因为我是统计学专业,所以我会选择从事数据分析行业,那么 用Python做数据分析成了一个最佳选择 。

要想使用Python做数据分析,首先就应该知道“ 数据分析的流程是怎样的? ”

我这次特地总结了一张 思维导图 给大家,点击放大看更清楚哦。

(点击查看高清大图)

基于此,我这里将我以前学习过程中用过的电子书(技能类、统计类、业务类),还有相关视频免费分享给大家,省去了你们挑选视频的时间,也希望能够对你们的学习有所帮助。

PS:我总结的资料有点多哦,差不多有4G,大家一定要给你的百度云盘空出位置来哦!

如果遇到一些环境配置,还有一些错误异常等bug,资料就显得不太够用,这时就需要找到老师,给我们特别讲解。

或者是想 快速学习 数据分析领域知识,不妨先找一找 直播课 看看, 了解当下最贴合实际的学习思路,确定自己的方向。

Day1 20:00量化交易入门:

用Python做股票指标分析和买卖时机选择

场景工具:Python工具分解RSI指标流程处理: 业务场景分析建模和可视化学习成果:使用RSI指标模型做买卖点搜索、交易回溯实战案例:分析A股数据模型,制定投资策略

Day2 20:00职场晋升必备:

制作酷炫报表,4步带你学习数据可视化

场景工具:用Tableau学习如何管理数据流程处理: 利用业务拆解找到数据指标、进行数据可视化学习成果:高效的对数据驱动型业务作出精准决策实战案例:利用可视化工具构建 旅游 客流量趋势地图

Day3 20:00量化交易进阶:

0基础用Python搭建量化分析平台

场景工具:利用pandas工具分解KDJ指标构成流程处理: 交易数据爬取,业务场景分析建模和可视化分析结果:用KDJ指标模型对比特币行情买卖点搜索交易回溯实战项目:掌握根据数据指数和分析工具寻找虚拟货币买卖原理

他们 每周都会定期分享 一些 干货 供大家学习参考,对学习很有帮助。

(深度学习DeepLearning.ai实验室认证)

微软/甲骨文/Cloudera等公司颁发的数据分析证书)

4步学会数据可视化,办公效率提高三倍

(更多精彩内容 等你解锁)

Python数据分析在数学建模中的应用汇总(持续更新中!)

1、Numpy常用方法使用大全(超详细)

1、Series和DataFrame简单入门

2、Pandas操作CSV文件的读写

3、Pandas处理DataFrame,Series进行作图

1、Matplotlib绘图之属性设置

2、Matplotlib绘制误差条形图、饼图、等高线图、3D柱形图

1、层次分析法(AHP)——算数平均值法、几何平均值法、特征值法(Python实现,超详细注释)

2、Python实现TOPSIS分析法(优劣解距离法)

3、Python实现线性插值和三次样条插值

4、Python实现线性函数的拟合算法

5、Python实现统计描述以及计算皮尔逊相关系数

6、Python实现迪杰斯特拉算法和贝尔曼福特算法求解最短路径

《利用python进行数据分析》读书笔记1

读取json内容:

建立只有‘tz’时区字段的列表。因为不是每个字典实例都有tz字段,所以要加上if 'tz' in rec。否则会报错。

统计每种时区的出现次数:

方法一:

先统计次数,生成{时区1:次数,时区2:次数....}形式的字典。

再对字典进行排序。

统计次数方法(1):

统计次数方法(2):

排序

其中counts.items()是将字典中的键值对以元组的形式放进列表里。

例:counts:

{u'America/Montreal': 9, u'America/Anchorage': 5, u'Asia/Seoul': 5}

counts.items():

[(u'America/Montreal', 9), (u'America/Anchorage', 5), (u'Asia/Seoul', 5)]

而这句:value_key_pairs=[(count,tz) for tz, count in counts.items()]则是对返回的键,值对元组的位置做了调换。

例:[(9, u'America/Montreal'), (5, u'America/Anchorage'), (5, u'Asia/Seoul')]

value_key_pairs.sort()中 list.sort()方法只能用于列表,是对原列表进行排序。默认升序。需要降序则value_key_pairs.sort(reverse=False)

关于排序的知识详细参考:

方法二:使用Counter类

Counter类的目的是用来跟踪值出现的次数。它是一个无序的容器类型,以字典的键值对形式存储,其中元素作为key,其计数作为value。计数值可以是任意的Interger(包括0和负数)。Counter类和其他语言的bags或multisets很相似。

详细参考:

方法三:用pandas计数

注意里面有空值

此时的tz_counts如下。注意空字符串变成了unknow。以及增加了missing计数。

使用前十的数据,利用plot方法生成一张水平条形图。

总结:

1.往字典里存数据需要先初始化字典。可使用defaultdict函数:

2.清洗数据,有的数据没有某个字段,一是要替换掉这些缺失值,可用fillna方法替换。二是要注意有没有空字符串,这种数据可通过布尔型数组索引来替换掉。

3.对某个字段的值的出现次数进行统计,可使用三种方法

(1)新建一个字典,用以统计每个值的出现次数。再将该字典转换为列表,对列表进行排序。

(2)使用counter类进行次数统计并排序。

(3)先将json转换为DataFrame对象,再对其tz字段使用pandas的value_counts()方法进行次数统计并排序。

(责任编辑:IT教学网)

更多

推荐新手入门文章