当我们需要通过可测的变量对未知的变量进行估计,以达到预测的目的,当一个变量依赖于另一个变量时,也就是一个变量如何随另一个(些)变量变化时,就用回归分析(regressionanalysis),那么回归分析(regressionanalysis)步骤是怎样的呢?下面用实例为大家分析。
在回归分析中,被估计或被预测的变量称为因变量(dependentvariable)或反应变量(responsevariable)或结果变量,常用y表示。y所依存的变量就是自变量(independentvariable)或解释变量(explanatoryvariable)或预测因子(predictor),用x表示。
在线性回归中,自变量可以有一个或多个,但是因变量只能有一个。
比如我们要研究如下问题:
操作步骤:
Analyze-Regression-Linear
分别输入因变量和自变量,method部分默认选Enter。它是指候选自变量全部纳入模型,不做任何筛选,Enter的结果是所有候选变量的P值都会显示出来。
选择Statistics-勾选-Continue
Options-选择Excludecasespairwise-Continue
点击Plots选择Y,X轴和正态分布图。
点击Save,选择Mahalanobisbox和Cooks,然后Continue-Ok
结果解释:
Step1:检查假设Checkingtheassumptions
首先要检查两个自变量与因变量之间至少具有一定相关性。在下图中可以看出r都是大于3的,两个自变量与因变量之间都具有一定的相关性。
还要去看Tolerance和VIF的值,可以看出是否存在multicollinearity的问题。如果Tolerance的值非常小,小于0.1,那么就可能有multicollinearity的问题;如果VIF大于10,则也会存在multicollinearity的问题。
在NormalP-PPlot图中,我们希望看到的是这些点位于从左下角到右上角的一条合理的直线上,这表明没有重大的偏离正常分布。在Scatterplot图中,希望残差(residuals)大致呈矩形分布,大部分分数集中在中心(沿0点)。在Scatterplot图上也能找到outliers。
Step2:评估模型(Evaluatingthemodel)
下图的模型汇总表中,最重要的指标是R方(Rsquare),称为决定系数(coefficientdetermination),Rsquare的取值在0-1之间,它反应了回归贡献的相对程度,即在因变量y的总变异中回归关系所能解释的比例。本例中,Rsquare=0.468,说明自变量MasteryandPCOISS可以解释因变量Perceivedstress的46.8%,这个数据还是可以的。
Step3:评估自变量(Evaluatingeachoftheindependentvariables)
模型中的哪些变量对因变量的预测有贡献呢?我们在Coefficients表中的StandardisedCoefficients的Beta数值来看。Beta值越大,说明其预测能力越强,这里不用考虑数字前面的负号。本例中最大的betacoefficient等于.42,指的是TotalMastery,说明该变量对解释因变量的独特贡献最强。
我们还可以看下每个变量的Sig.,如果变量的Sig.小于0.05,具有统计学意义,那么自变量对因变量的预测有重要的独特贡献。本例中TotalMastery和TotalPCOISS都有统计学意义。
以上就是关于SPSS回归分析(RegressionAnalysis)步骤内容,欢迎大家阅读,如果还有什么问题,欢迎大家给我们留言,如果需要各类SPSS作业代写服务,请联系网站客服。