标准偏差的两种算法
有一个关于标准偏差的计算的疑问。
标准计算:就是用最原始的公式。
还有一种算法: 就是用D2*Average (Range) 来计算。
我用了一组数据,共有30个数据,五个数据一个子组,这样就会得到5个Range值,
求他们的平均,就得到一个Average(Range).然后乘以2.33,得到标准偏差。
然后我用另外一个方法--就是直接用MINITAB或者用EXCEL中的公式来算出。
可问题在于为什么两个计算出来相差很大。
请求各位大虾指点。
标准计算:就是用最原始的公式。
还有一种算法: 就是用D2*Average (Range) 来计算。
我用了一组数据,共有30个数据,五个数据一个子组,这样就会得到5个Range值,
求他们的平均,就得到一个Average(Range).然后乘以2.33,得到标准偏差。
然后我用另外一个方法--就是直接用MINITAB或者用EXCEL中的公式来算出。
可问题在于为什么两个计算出来相差很大。
请求各位大虾指点。
没有找到相关结果
已邀请:
9 个回复
wxj1126 (威望:6) (湖北 武汉) 在校学生 主管 - 封帐号
赞同来自: