对于电子测试测量领域,要选择合适的测试仪器,其测试范围和测试精度是往往是客户较为看重的方面。仪器精度是衡量测量结果准确性的重要指标,涉及多个方面,包括精度等级、重复性、分辨率、灵敏度、线性度和稳定性等。了解这些概念有助于正确选择和使用仪器仪表,确保测量结果的可靠性。
仪器精度等级 - 精度等级是衡量仪器精度的指标之一,通常以误差范围表示。不同精度等级的仪器仪表适用于不同的测量要求。例如,精密测量仪器的精度等级通常在微米或更高,而常规工程测量仪器的精度等级则在毫米或更高。精度等级可以通过误差理论分析等方法进行评估。
分辨率 - 分辨率是指仪器仪表能够区分最小测量单位的能力。分辨率越高,仪器仪表能够测量的最小单位越小,能够捕捉到的细节信息越多。分辨率受到仪器仪表的物理特性和电路噪声等因素的影响。提高分辨率的方法包括采用高精度的传感器和电路设计,以及优化数据处理算法等。
灵敏度 - 灵敏度是指仪器仪表对被测对象变化的响应程度。灵敏度高的仪器能够快速响应被测对象的变化,而灵敏度低的仪器仪表则需要较长时间或较大的变化量才能响应。灵敏度与精度是两个不同的概念,但它们之间存在一定的联系。通过灵敏度分析法可以评估仪器仪表的性能。
线性度 - 线性度是指仪器仪表的输出值与输入值之间的线性关系。理想的仪器应具有完美的线性关系,但实际中往往存在一定的非线性误差。线性度与精度密切相关,线性度差的仪器仪表可能导致测量结果偏离真实值。通过线性度分析法可以评估仪器仪表的性能,例如使用线性回归分析等方法来计算线性相关系数和拟合线。
稳定性 - 稳定性是指仪器仪表在使用过程中保持测量结果稳定的能力。仪器的稳定性受到多种因素的影响,如环境温度、湿度、电源波动等。在使用过程中,仪器仪表可能会受到这些因素的影响而导致测量结果的变化。通过稳定性分析法可以评估仪器仪表的性能,例如通过长时间监测仪器仪表的测量结果来观察其变化趋势和波动范围。
作为基础的测试测量仪器,万用表,示波器,电源等应用广泛,那么其最小测试或输出能力如何, 仪器精度又如何呢?我们先以万用表为例展开。
1. 台式 6. 5位 万用表
其仪器精度指标如下, 如果客户想测试10mV 的直流电压, 这个表可以吗?其精度怎么计算呢?
1.1 仪器精度最小数值测试能力
这里两个数值对测试精度都有贡献。读数即仪器测试的数值结果,这个根据被测件而定,而量程误差是固定的。在100mV量程 , 按照1年的精度,其相关误差系数是0.0050 + 0.0035,那么量程带来的误差是100mVx0.0035%=3.5uV这个数值表明仪器在100mV这个量程,其误差至少是3.5uV,那么能测试到最小值到底是多少, 这就取决于客户对测试精度的要求了。如果要是测试10uV数值,其误差是35%了, 这个数值可不小,测试的结果参考价值不高。如果是100uv测试,误差是3.5%左右,还算不错。
上述的公式中已经表明精度计算公式,以测试结果1mV为例,
所以,万用表最小测试能力,可以从量程引入的误差数值来确认。
其他的测试功能, 如电阻, 电流等也都可以按照这种方式来衡量。
1.3 手持万用表的精度又是怎样的?
以U1253B手持万用表为例,DCV直流电压测试精度公式:
± (% of reading + No. of Least Significant Digit)
%reading 和上述台式万用表一样, No. of Least Significant Digit 这个代表 Resolution 分辨率。
如果测试数值结果是 40 mv,那么其测试精度遵循50 mv 量程的误差系数 (0.05+50),即测试精度=40mv x 0.05%+50 x 0.001 mv = 20uv+50uv=70 uv. 所以可以得到,U1253B直流电压最小测试能力至少要高于70 uv 。
2. 示波器精度计算公式
以是徳科技 3000T系列示波器为例,其直流垂直精度计算公式=
±[直流垂直增益精度 + 直流垂直偏置精度 + 0.25% 全量程]
这里仪器精度误差的因素来源有三个,在示波器的技术指标中页有描述。
假如每格是10mv/div,示波器Y轴共8格,全量程就是80mv,
直流垂直增益精度=2%x80mv= 1.6mv
直流垂直偏置精度=±( 0.1 格 ± 2 mV ± 偏置设置值的 1%)=0.1x10mv+2mv+1Vx1%=13mv(假设偏置设置值设置为1V)从这个公式中可以看到2mv是固定,那么示波器要测试mv级别的电压,测试误差就很大了。
综上,示波器在测试直流电压时,
假如每格是10mv/div,示波器Y轴共8格,全量程就是80mv,
直流垂直增益精度=2%x80mv= 1.6mv
直流垂直偏置精度=±( 0.1 格 ± 2 mV ± 偏置设置值的 1%)=0.1x10mv+2mv+1Vx1%=13mv
3. 电源精度
以 N7900电源系列为例,电源精度精度如下
电源一般有两个参数,一个编程精度, 一个是回读或测试精度。
编程精度(programming accuracy)设置值和实际输出的差值。从编程精度可以看出电源的输出能力。
如N7950A的电压精度,针对不同的测试线压降,有两个精度计算公式。在lead drop 线压<1v,其精度误差=设置值x0.03%+1mv,1mv 是固定误差,即使输出为0v,电源输出的值也可能在+-1mv范围内变化。如果要输出1v,其精度=1.3mv;若线压<25%电压量程时,1v输出的精度=设置值0.03%+1.4mv=1.7mv
测试精度(measurement accuracy)电源内部测试的数值与实际输出的差值。
这里的测试精度和编程精度一样,计算方式一样,在这里就不做赘述。有些电源产品的这两种精度会不同。比如我们的SMU源表,其测试精度比编程精度更高,更注重测试小的电压或电流。
以上是三种常见的测试仪器, 那么我们还有一些测试仪器, 如频率计,LCR设备,其测试精度公式很复杂, 要按照许多精度计算公式才能算出,并且测试精度与设置参数有关,大家可以在仪器的技术指标中看到详细的内容。
請扫描二维码,推荐阅读白皮书:如何提高功率电平测量精度?
是德科技 www.keysight.com.cn