测量仪器的分辨力为何确定为公差带的十分之一
测量系统手册中明确指出:
测量仪器的分辨力的第一准则应该至少是被测范围的十分之一。即十比一规则。同时也解释为测量设备能够分辨至少十分之一的过程变差。
那么为什么会定成十分之一呢?有什么理论依据?
比如0.10的外径公差带可以用普通的游标卡尺测量,但0.099的公差带按照规则却只能用μ级的千分尺进行测量。
希望对此准则有所理解的各位一起讨论。
测量仪器的分辨力的第一准则应该至少是被测范围的十分之一。即十比一规则。同时也解释为测量设备能够分辨至少十分之一的过程变差。
那么为什么会定成十分之一呢?有什么理论依据?
比如0.10的外径公差带可以用普通的游标卡尺测量,但0.099的公差带按照规则却只能用μ级的千分尺进行测量。
希望对此准则有所理解的各位一起讨论。
没有找到相关结果
已邀请:
31 个回复
nichales (威望:1)
赞同来自: 红动中国 、学会变坏 、moonlight_462