常用数据分析方法有哪些
对于每个科研工作者而言,对实验数据进行处理是在开始论文写作之前十分常见的工作之一。但是,常见的数据分析方法有哪些呢?下面,小编为大家分享常用数据分析方法有哪些,希望对大家有所帮助!
列联表分析
用于分析离散变量或定型变量之间是否存在相关。
对于二维表,可进行卡方检验,对于三维表,可作Mentel-Hanszel分层分析。
列联表分析还包括配对计数资料的卡方检验、行列均为顺序变量的相关检验。
相关分析
研究现象之间是否存在某种依存关系,对具体有依存关系的现象探讨相关方向及相关程度。
1、单相关: 两个因素之间的相关关系叫单相关,即研究时只涉及一个自变量和一个因变量;
2、复相关 :三个或三个以上因素的相关关系叫复相关,即研究时涉及两个或两个以上的自变量和因变量相关;
3、偏相关:在某一现象与多种现象相关的场合,当假定其他变量不变时,其中两个变量之间的相关关系称为偏相关。
方差分析
使用条件:各样本须是相互独立的随机样本;各样本来自正态分布总体;各总体方差相等。
分类
1、单因素方差分析:一项试验只有一个影响因素,或者存在多个影响因素时,只分析一个因素与响应变量的关系
2、多因素有交互方差分析:一顼实验有多个影响因素,分析多个影响因素与响应变量的关系,同时考虑多个影响因素之间的关系
3、多因素无交互方差分析:分析多个影响因素与响应变量的关系,但是影响因素之间没有影响关系或忽略影响关系
4、协方差分祈:传统的方差分析存在明显的弊端,无法控制分析中存在的某些随机因素,使之影响了分祈结果的准确度。协方差分析主要是在排除了协变量的影响后再对修正后的主效应进行方差分析,是将线性回归与方差分析结合起来的一种分析方法。
描述统计
描述性统计是指运用制表和分类,图形以及计筠概括性数据来描述数据的集中趋势、离散趋势、偏度、峰度。
1、缺失值填充:常用方法:剔除法、均值法、最小邻居法、比率回归法、决策树法。
2、正态性检验:很多统计方法都要求数值服从或近似服从正态分布,所以之前需要进行正态性检验。常用方法:非参数检验的K-量检验、P-P图、Q-Q图、W检验、动差法。
假设检验
1、参数检验
参数检验是在已知总体分布的条件下(一股要求总体服从正态分布)对一些主要的参数(如均值、百分数、方差、相关系数等)进行的检验 。
1)U验 使用条件:当样本含量n较大时,样本值符合正态分布
2)T检验 使用条件:当样本含量n较小时,样本值符合正态分布
A单样本t检验:推断该样本来自的总体均数μ与已知的某一总体均数μ0 (常为理论值或标准值)有无差别;
B 配对样本t检验:当总体均数未知时,且两个样本可以配对,同对中的两者在可能会影响处理效果的各种条件方面扱为相似;
C 两独立样本t检验:无法找到在各方面极为相似的两样本作配对比较时使用。
2、非参数检验
非参数检验则不考虑总体分布是否已知,常常也不是针对总体参数,而是针对总体的某些一股性假设(如总体分布的位罝是否相同,总体分布是否正态)进行检验。
适用情况:顺序类型的数据资料,这类数据的分布形态一般是未知的。
A 虽然是连续数据,但总体分布形态未知或者非正态;
B 体分布虽然正态,数据也是连续类型,但样本容量极小,如10以下;
主要方法包括:卡方检验、秩和检验、二项检验、游程检验、K-量检验等。
信度分析
检査测量的可信度,例如调查问卷的真实性。
分类:
1、外在信度:不同时间测量时量表的一致性程度,常用方法重测信度
2、内在信度;每个量表是否测量到单一的概念,同时组成两表的内在体项一致性如何,常用方法分半信度。
回归分析
分类:
1、一元线性回归分析:只有一个自变量X与因变量Y有关,X与Y都必须是连续型变量,因变量y或其残差必须服从正态分布。
2、多元线性回归分析
使用条件:分析多个自变量与因变量Y的关系,X与Y都必须是连续型变量,因变量y或其残差必须服从正态分布 。
1)变呈筛选方式:选择最优回归方程的变里筛选法包括全横型法(CP法)、逐步回归法,向前引入法和向后剔除法
2)横型诊断方法:
A 残差检验: 观测值与估计值的差值要艰从正态分布
B 强影响点判断:寻找方式一般分为标准误差法、Mahalanobis距离法
C 共线性诊断:
·诊断方式:容忍度、方差扩大因子法(又称膨胀系数VIF)、特征根判定法、条件指针CI、方差比例
·处理方法:增加样本容量或选取另外的回归如主成分回归、岭回归等
Logistic回归分析
线性回归模型要求因变量是连续的正态分布变里,且自变量和因变量呈线性关系,而Logistic回归模型对因变量的分布没有要求,一般用于因变量是离散时的情况
分类:
Logistic回归模型有条件与非条件之分,条件Logistic回归模型和非条件Logistic回归模型的区别在于参数的估计是否用到了条件概率。
4、其他回归方法 非线性回归、有序回归、Probit回归、加权回归等
聚类分析
样本个体或指标变量按其具有的特性进行分类,寻找合理的度量事物相似性的统计量。
1、性质分类:
Q型聚类分析:对样本进行分类处理,又称样本聚类分祈 使用距离系数作为统计量衡量相似度,如欧式距离、极端距离、绝对距离等
R型聚类分析:对指标进行分类处理,又称指标聚类分析 使用相似系数作为统计量衡量相似度,相关系数、列联系数等
2、方法分类:
1)系统聚类法: 适用于小样本的样本聚类或指标聚类,一般用系统聚类法来聚类指标,又称分层聚类
2)逐步聚类法 :适用于大样本的样本聚类
3)其他聚类法 :两步聚类、K均值聚类等
判别分析
1、判别分析:根据已掌握的一批分类明确的样品建立判别函数,使产生错判的事例最少,进而对给定的一个新样品,判断它来自哪个总体
2、与聚类分析区别
1)聚类分析可以对样本逬行分类,也可以对指标进行分类;而判别分析只能对样本
2)聚类分析事先不知道事物的类别,也不知道分几类;而判别分析必须事先知道事物的类别,也知道分几类
3)聚类分析不需要分类的历史资料,而直接对样本进行分类;而判别分析需要分类历史资料去建立判别函数,然后才能对样本进行分类
3、进行分类 :
1)Fisher判别分析法 :
以距离为判别准则来分类,即样本与哪个类的距离最短就分到哪一类, 适用于两类判别;
以概率为判别准则来分类,即样本属于哪一类的概率最大就分到哪一类,适用于
适用于多类判别。
2)BAYES判别分析法 :
BAYES判别分析法比FISHER判别分析法更加完善和先进,它不仅能解决多类判别分析,而且分析时考虑了数据的分布状态,所以一般较多使用;
主成分分析
将彼此梠关的一组指标变适转化为彼此独立的一组新的指标变量,并用其中较少的几个新指标变量就能综合反应原多个指标变量中所包含的主要信息 。
因子分析
一种旨在寻找隐藏在多变量数据中、无法直接观察到却影响或支配可测变量的潜在因子、并估计潜在因子对可测变量的影响程度以及潜在因子之间的相关性的一种多元统计分析方法
与主成分分析比较:
相同:都能够起到済理多个原始变量内在结构关系的作用
不同:主成分分析重在综合原始变适的信息.而因子分析重在解释原始变量间的关系,是比主成分分析更深入的一种多元统计方法
用途:
1)减少分析变量个数
2)通过对变量间相关关系探测,将原始变量进行分类
时间序列分析
动态数据处理的统计方法,研究随机数据序列所遵从的统计规律,以用于解决实际问题;时间序列通常由4种要素组成:趋势、季节变动、循环波动和不规则波动。
主要方法:移动平均滤波与指数平滑法、ARIMA横型、量ARIMA横型、ARIMAX模型、向呈自回归横型、ARCH族模型
生存分析
用来研究生存时间的分布规律以及生存时间和相关因索之间关系的一种统计分析方法
1、包含内容:
1)描述生存过程,即研究生存时间的分布规律
2)比较生存过程,即研究两组或多组生存时间的分布规律,并进行比较
3)分析危险因素,即研究危险因素对生存过程的影响
4)建立数学模型,即将生存时间与相关危险因素的依存关系用一个数学式子表示出来。
2、方法:
1)统计描述:包括求生存时间的分位数、中数生存期、平均数、生存函数的估计、判断生存时间的图示法,不对所分析的数据作出任何统计推断结论
2)非参数检验:检验分组变量各水平所对应的生存曲线是否一致,对生存时间的分布没有要求,并且检验危险因素对生存时间的影响。
A 乘积极限法(PL法)
B 寿命表法(LT法)
3)半参数横型回归分析:在特定的假设之下,建立生存时间随多个危险因素变化的回归方程,这种方法的代表是Cox比例风险回归分析法
4)参数模型回归分析:已知生存时间服从特定的参数横型时,拟合相应的参数模型,更准确地分析确定变量之间的变化规律
典型相关分析
相关分析一般分析两个变里之间的关系,而典型相关分析是分析两组变里(如3个学术能力指标与5个在校成绩表现指标)之间相关性的一种统计分析方法。
典型相关分析的基本思想和主成分分析的基本思想相似,它将一组变量与另一组变量之间单变量的多重线性相关性研究转化为对少数几对综合变量之间的简单线性相关性的研究,并且这少数几对变量所包含的线性相关性的信息几乎覆盖了原变量组所包含的全部相应信息。
R0C分析
R0C曲线是根据一系列不同的二分类方式(分界值或决定阈).以真阳性率(灵敏度)为纵坐标,假阳性率(1-特异度)为横坐标绘制的曲线用途:
1、R0C曲线能很容易地査出任意界限值时的对疾病的识别能力用途 ;
2、选择最佳的诊断界限值。R0C曲线越靠近左上角,试验的准确性就越高;
3、两种或两种以上不同诊断试验对疾病识别能力的比较,一股用R0C曲线下面积反映诊断系统的准确性。
其他分析方法
多重响应分析、距离分祈、项目分祈、对应分祈、决策树分析、神经网络、系统方程、蒙特卡洛模拟等。
怎样选择数据分析方法
一、质量改进统计方法选择的基本导向
从工业革命的传统过程考察,大量的统计方法和技术伴随机器工业和科学实验的进步发展起来。像美国贝尔实验室的工程师休哈特提出的统计质量控制方法、道奇和罗米格首创的计数标准型抽样检验方法、费歇尔的正交实验设计、皮尔逊的相关分析和费希尔的回归分析等,都是在工农业生产和科学实验的数据基础上发展起来的,也有一些方法来源于医学和生物统计学的研究和物理化学实验的数据分析活动中,比如卡方检验、蒙特卡洛随机模拟等。这些方法不是来自单纯的演绎逻辑意义上的推导过程,而是从工农业生产和科学实验的实践中发展起来的,虽然受制于获取数据和手工计算能力的约束,但方法论的创新还是极大地推动了质量统计技术的进步和实际应用的发展。
目前,在质量改进活动中使用统计方法已经相当普及,许多改进项目甚至开始独立设计统计模型方法及相应的检验工具,统计学作为质量改进的基础方法论得到了广泛的发展和应用。促进这些方法走向实践的主要原因是什么?
(一)数据导向。
所谓数据导向,即“有什么数据,选择什么方法”,从质量过程生成的统计数据出发,选择和设计相应的统计方法,有时也根据这些数据设计一些QC课题或者其他质量改进项目。这种导向的特点是有什么数据,就做什么改进,而不是从质量现状或质量改进的关键技术、关键环节、成本、安全及交货期等出发。例如,国内某著名乳品企业采用先进的乳制品生产、消毒、存储和包装设备,每日自动产生大量的过程统计数据和质量检验数据,加上营销部门提供的销售数据和电子商务网站形成的客户订购、投诉和评价数据,构成了复杂的数据系统,实际上已经成为企业大数据系统的雏形。但是,该企业始终没有设计出适应企业自身需求的数据分析系统,也无法使这些数据在系统的质量改进和控制中起到积极的作用,浪费了大量的数据资源和改进管理的机会。
(二)模型导向。
模型导向是指为实证某个新设计或新发现的统计模型而进行的质量改进过程,这些统计模型的成功应用有些可以获得良好的改进效果,有些则无法适应真正的改进目标。从改革开放30多年中质量管理技术的进步过程来看,我们一直在追赶发达国家的管理手段和技术方法,从20世纪80年代的全面质量管理、90年代的质量标准化管理到2000年代后的六西格玛管理和卓越绩效管理,似乎都体现了方法论上的盲目性,只顾追赶别人的脚步,不知道是否适合自身的发展。
从微观角度审视,一些企业的质量管理技术人员,在质量方法的选择上追求模型的“高大上”,简单参考和引进国外的先进数学模型,用眼花缭乱的数学公式代替了扎扎实实的现场调查和改进过程,把质量管理活动变成了新统计模型的实验室。
(三)工具导向。
统计软件是质量统计的重要工具,从SPC的应用过程可以看到,休哈特博士设计的均值极差控制图就是典型的工具导向的一个应用。由于当时的计算能力和工具不足,因此在作业现场计算方差比较困难,所以休哈特博士采用了计算更为简易的极差来替代方差,用以表征质量过程的波动性。
专业的统计软件是质量改进方法的重要推动力量,一些世界知名厂商也陆续推出面向质量管理的专用模块和程序,这些软件包括SAS、SPSS、STATISTICA
、Minitab、Matlab等。进入新世纪以来,大数据逐渐成为统计软件工具必须面对的重要对象,数据挖掘(Data Mining)和商业智能(Business Intelligence)等方法成为统计软件的主流方法,同时这些方法也被大量应用到质量管理活动中。于是,以统计软件工具为导向的一大批质量管理成果开始出现在各种场合,比如六西格玛黑带项目、可靠性项目、多变量统计过程控制(MSPC)、实验设计(Design of Experiment)等。
与模型导向一样,工具导向的质量改进也是被动的,无法真正面向质量生产的过程,即便是成功的数据分析也只能是统计模型和软件的新例证,而不能成为质量改进的新成果。
(四)案例导向。
案例导向的质量改进过程,来自商学院工商管理硕士(MBA)案例教学实践中,来自企业、院校和研究所的MBA似乎更喜欢来自成功案例方法的质量改进过程。但商业模式和管理经验并不总是可重复和可再现的,质量改进也是如此,商业案例只是对成功管理活动的总结和提炼,而不是输出管理规则和盈利模式。因此,基于成功的商学院案例或者六西格玛成功案例实施的质量改进方法进程中,有很大一部分是无法完成改进目标和任务的。
(五)任务导向。
所谓的任务导向是目前很多企业采用的一种中规中矩的质量统计方法,就是根据企业生产计划和调度要求,提出某项生产或管理任务,从完成任务的目的考虑,采用常规的统计方法或者技术来完成任务,甘特图的使用就是任务导向的一个典型例子。
企业在进行绩效考核的时候,一般多采用多变量线性模型进行综合评价,用来合成多项指标的考核分值,这类统计方法已经成为主流的绩效评价方法,从卓越绩效模式的评价到中小企业的员工绩效考核,大多采用此法,这就是任务导向的方法选择。这些方法是无法进行真正的质量改进的,只是一种较优的质量统计方法选择。
(六)问题导向。
质量统计方法的基本功能是描述、解释和探索,是基于过程或结果的统计数据而进行的有目的的质量改进活动,用以解决企业经营管理过程中出现的各种问题。因此,问题导向的质量统计方法主要是指以质量管理活动中出现的问题为核心改进目标,从问题的现状调查、研判、因果关系判别以及对策、实验和检验等基本目标出发,量身定制或者重新创建新的数据管理或质量改进统计方法,做到因地制宜、对症下药,达到追本溯源、药到病除的效果,这才是真正的应用统计价值所在,也是质量统计方法追求的科学、合理和高效的真正动力。
现实中,一些QC项目和六西格玛项目,就是为了做项目而刻意寻找项目,而不是面向企业生产经营和管理实践活动本身,他们根据比较好的一些质量特性,逆向设计统计方法,模拟和推断出可能的数据改进方法和计算模型,从而达到项目要求或评奖要求,实际上放弃了统计方法对于质量改进的真正贡献,也放弃了科学改进的真正目的,违背了质量改进的最初目的和终极价值。
二、问题导向的质量改进统计方法选择
问题导向的质量改进过程中,要一切从问题的现状出发,拟定合理目标,设计跟进数据集,选择合适的统计方法,带着问题逐步深入才能得到满意的改进效果。
问题导向的质量改进一般应遵循三个基本原则,一是厘定问题,单一目标;二是自顶向下,逐步求精;三是优选方法,单入单出。在这个原则下,质量改进的过程可以分为以下步骤:
(一)提出问题。
和一般的改进过程一样,面向问题的改进过程主要是对于质量问题的定义和选择,这些问题不是上级决定的,也不是财务目标中挑出来的,而应该来自质量经营和管理的实践中出现的质量问题和可能造成不良的机会。因此质量改进的动因本身就具有补偿性质量的能力,如果不出现问题,质量管理的重点则应放在质量保证能力建设和预防性质量的提升方面。
(二)描述问题并抽象成统计模型。
精确定义质量生产和使用过程中出现的问题,并力图把这个问题抽象成为统计模型。比如对于推土机首次故障时间的确认,就可以根据统计建模的经验和方法,考虑通过构建指数模型来计算一批推土机销售以后首次故障时间的期望均值,并以此通过假设检验来设定首次故障时间,并最终实现质量的全面提升。
(三)获得过程和结果的数据。
统计模型方法依赖大量数据和检验,因此模型方法所需要的数据必须和问题产生的过程保持一致,也就是说,必须回到问题发生的现场去收集整理数据并获得数据口径、背景和计算方法的要求。这些数据可以客观地描述、解释和探索质量过程中的细节,可以由此回溯和推断问题出现的可能性、因果性以及相关性,真正地做到“让数据说话”、“让模型作证”和“让结果指向”。
(四)分析建模和验证。
根据得到的数据和所选的统计方法创建统计模型,对问题进行深入的分析和解剖,得到解决问题的基本方向和思路,并设计出解决问题的路径和方法,对这些方法进行实地实验和验证,力求得出解决问题的全局性对策。
(五)方法选择的导向性。
有些问题的出现和解决,似乎有定数,比如因果图就经常被用来解决质量改进中的可能性关联问题。有些研究者更愿意采用复杂的数理统计模型来完成该改进任务,但我们的建议是选择最适合的方法,而不是最先进或者最豪华的方法。面向问题是质量改进的第一动力,因此统计方法的选择只有依照这个原则来进行,才有可能真正起到质量改进的作用,也从而实现质量提升的最终目标。
三、统计数据的来源和统计方法的适应性
(一)数据来源。
传统的企业统计数据来源于三个方面,即企业统计台账、生产记录和检验记录,这些数据是工业生产过程的人工记录,需要对质量生产过程进行人工干预才可以获得,有些数据因此产生了较大的误差和偏移,以至于很多统计方法无法接近真实过程。
目前,我国已进入工业化后期,国际先进的制造技术和设备被大量引进,其中包括具备强大数据生产能力的数控设备、网控设备和电子自动检测装置等,这些先进的电子设备可以大量测定、检验和记录数据,生成连续性、大规模和高精度的同步数据集,此即企业大数据的雏形。在一些先进的制造企业,技术人员已经可以直接从设备上导出大量的数据用以完成SPC、MSA、DOE等经典统计模型的拟合和研判,可以实现真正的大数据同步质量分析、检验和预警目标。
因此,当前企业主要的数据来源有四个方面,一是企业管理数据,包括企业管理统计台账、绩效考据数据、经营管理数据、投资和财务数据、营销数据等;二是企业生产过程数据,包括来自电子设备和网络设备中自动记录和筛选的数据;三是质量检验和验收的数据;四是来自供应链和客户调查的数据。这些数据大部分是连续生产的,主要是定量数据,也包含一些定性数据,这些数据构成企业经营管理活动的新资源。
(二)统计方法选择的基本原则。
问题导向的统计方法选择一般以数据为基础,有的方法要求的数据量比较少,因而容易在实践中使用,比如SPC、DOE等,而有的统计方法则要求更多的数据量和数据质量,比如时间序列和可靠性统计分析方法等。因此,选择统计方法时,应考虑所需要的数据在多个方面的特征和要求。
一是数据的易得性,要能够很容易和低成本地采集数据,对于网控设备来说,还应考虑网络联通问题;二是数据的统计口径、测量设备和测定方法要保持一致,这样的数据才具备基本的分析基础和分析能力;三是大数据的连续性采集能力,一些现场数据的采集必须满足连续性的要求,才可以辅助实施和分析,采用管理学意义上的价值,比如统计过程控制和抽样检验的数据等;四是保持数据采集的可重复性、可复现性和可控制性,大量统计数据的误差只有通过较为严格的方差分析和参数检验、分布模拟可能付诸建模分析和质量改进,因此要保证数据的采集技术不会带来较大的误差影响。
【数据分析方法有哪些】相关文章:
常用数据的分析方法有哪些06-23
常见的网站数据分析的方法有哪些?07-10
HR数据分析有哪些?07-10
数据分析和挖掘有哪些公开的数据来源?07-10
投资技术分析方法有哪些06-30
销售数据的分析方法07-25
数据整理分析方法10-22
数据分析的方法06-20
大数据的分析方法06-25