假如可使秒表的测量误差降低到与GPS或超声波测速一个量级,是否也可把初中实验看作直接测量速度呢?因为超声波的速度比起GPS电磁波的速度还是小多了?其误差应该比GPS可控性差?所以这是不是从误差角度区别直接测量与间接测量呢?求斧正
所谓直接测量,是指通过设备测量后,可以直接得到(读取)所需要的数值。
所谓间接测量,是指通过设备测量后,需要通过计算、转换等方法才能得到所需要的数值。
这两者直接并没有完全的精度高低关系,测量精度主要来源还是由采用的方法误差、测量设备的精度误差、人为误差、环境误差等综合因素构成的。
下以“人工测速”和“GPS测速”两种方法为对照进行解说。
⑴、人工测速,最基础的测速方法就是“距离÷时间”,我们需要测量这两个数值,然后进行计算,那么误差来源于哪些方面呢?
①、卷尺(或其他测距工具,下同)自身的精度误差,各种工具都不可能做到完全符合国际标准的要求,肯定存在一定的出入,假如你的卷尺每米实际长度为0.999~1.001米,那误差就有±0.1%;
②、卷尺的分度值精度限制,一般几十米的皮卷尺,最小刻度为厘米,厘米以下最多保留一位估计值,如果测量100米的距离,分度值误差就有±0.01%(1厘米/100米);
③、卷尺受热胀冷缩影响,冬季与夏季的实际长度存在偏差,以聚酯纤维材料为例,热膨胀系数大约为5ppm/℃,如果当地冬夏温差40℃,存在±0.01%的季节误差;
④、秒表自身也存在精度误差,机械表具精度低一些,一天误差几分钟,但电子表具一般精度都很高,每天误差也只有几秒甚至1秒以下,我们以1秒为例,则有大约±0.001%的精度误差。
⑤、人为误差在这个测量方法中的占比很大,对于测量距离,人拉皮尺紧一点松一点,大约会造成±0.1%的误差;对于测量时间,一般人的反应时间为0.1秒,假设速度10米/秒左右,跑100米要10秒,则人为误差达到±1%。
⑥、计算误差,这方面要看取值精度及计算工具的精度,我们现在采用电子计算器计算,精度可达到有效数字10位左右,误差只有±0.00000001%。(计算错误不属于误差,那是错误。)
综合上述因素,我们用v=S/t来计算速度时:
距离S的误差为:ΔS=0.1%+0.01%+0.01%+0.1%=0.22%;
时间t的误差为:Δt=0.001%+1%=1.001%;
综合误差为:(1+0.22%)×(1+1.001%)-1=1.2232022%;
还需要再加上计算误差:1.2232022%+0.00000001%=1.22320221%
这就是本系统的最终误差:±1.22320221%
⑵、GPS测速,可以由设备直接读数,由于本人没有GPS设备误差数据,无法评判,但应该是比卷尺+秒表测速要低很多的。当然,也还取决于GPS测速仪的数据精度,比如我们常用手机GPS导航,其数据精度只保留到整数(千米/小时),那这个精度就比较低了。
但这里要对GPS测速给出一些误差来源分析:
首先我们要知道GPS测速的原理,实际上它也是用“距离÷时间”的方法来得出速度值的,而且它的系统中对距离的测量方式更复杂。
①、GPS测速仪发送信号给多个GPS卫星,由于各个GPS卫星位置不同,距离不同,收到信号的时间有先后,卫星记录的是收到信号的时间;
②、电脑需要以这些时间差以及各卫星的当前位置为基数,计算GPS测速仪所处位置。(计算前,电脑需要排除GPS测速仪和GPS卫星的反应时间,这个反应时间一般已经预设在电脑中)
③、卫星收到测速仪第二次发送信号,仍旧这么处理,得到两个位置和两个时间,电脑计算两个位置之间的距离,再除以两个时间之间的差值,两者相除,得到速度值。
所以,GPS测速仪的测速机制其实比人工测速更复杂,计算更多,产生误差的环节更多。但由于设备精度足够高,所以综合误差会小于人工测速的误差。
从GPS测速仪的测速原理可知,其实所谓对速度的“直接测量”,拆解开来后也是间接测量,但由于其各个环节的测量工具、计算方式等都已经固化了,综合误差也固化了,所以,我们就把它归类为“直接测量”,精确计算时,也只将其固化后的综合误差作为设备误差。
回到你的问题:
如果你能做到:
①、用精度足够高的激光定位仪来测量距离;
②、用与卫星类似的“铯同位素时钟”来测量时间;
③、并将两者用电脑相连,获取起点位置的同时获取起点时间,获取终点位置的同时获取终点时间,以排除人为误差;
④、用精度足够高的电脑程序来做数据计算。
那么,你测量出来的速度会比GPS测速仪精度更高。
原因很简单:用激光定位仪来测量位置,在百米距离内定位精度是微米~毫米级的;而GPS定位地面位置,精度只能达到分米~米级别。