示波器和频率计测量频率,哪个更准?
在电子技术领域中,信号频率的测量是我们经常会遇到的问题,示波器和频率计均可以实现频率测量,那么究竟哪种方法的测量结果更为准确呢?下面我们将就这两种方法的测量原理和区别来做一些说明:
一.数字示波器测频率
示波器被称为工程师的眼睛,是时域上观察信号不可或缺的工具。现在普及的绝大多数是数字示波器。数字示波器的本质是将待测的模拟信号转换为离散的采样点,点和点通过某种方式相连组成了示波器屏幕上的波形。根据屏幕上的波形,示波器采用软件编程的“算法”来计算波形的相关参数。
频率是任何一台数字示波器都具有的测量参数,是周期的倒数,表示信号在单位时间(1秒)内变化的次数,通常用f表示,基本单位是Hz,1Hz表示每秒变化一次。 数字示波器测量频率的算法是怎么来的呢? 理解这个算法就理解了示波器测量频率的准还是不准的误差源。)
主流的数字示波器对频率进行测量算法是按周期的倒数来计算的。先计算出周期,再计算出频率。 示波器计算周期的算法是:计算出信号这个上升沿幅值50%的点到相邻下一个上升沿幅值50%的点之间的时间间隔。因此,示波器要先获得50%的点。要得到50%的点,必然需要确定幅值,那么我们就需要理解示波器测量参数的第一算法:确定高电平和低电平
峰峰值表示所有采样样本中的最大样本值减去最小样本值,这好理解,在示波器算法中也好实现; 而幅值表示被测信号的“高电平”减去“低电平”。高电平和低电平分别在哪里? 这就需要定义算法。这个算法的确定将不只是直接影响到“幅值”这个参数值,还将影响到绝大多数水平轴的参数值,如上升时间,下降时间,宽度,周期等,因为水平轴的参数要依赖于垂直轴的参数。
不同示波器厂商给出的“高电平”和“低电平”算法可能不尽相同,但都会采用公认的IEEE定义的算法,如图1所示,首先对图示中“LEFT CURSOR”(左光标)和“RIGHT CURSOR”(右光标)时间范围内的波形数据样本向垂直方向做“轨迹直方图”,从图中看上去, 轨迹直方图的垂直方向和原始波形的各采样点在垂直方向的位置一一对应,水平方向则表示在这个各位置上采集到的数据样本点的个数。图例中表示,有两个位置的数据样本出现的概率最高,这两个位置就分别被确定为“高电平(图示中表示top的位置)”和“低电平(图示中表示base的位置)”。(详见参考文献《关于数字示波器测量参数的第一算法》)
图1 IEEE定义的高电平和低电平算法成为其它一些参数算法的”源头”
如图1所示,幅值的定义是base(底部)到top(顶部)的纵轴差值。而top和base值是根据概率分布计算得来,若屏幕上样本数不够,一点点的过冲或下冲就可能影响到直方图分布的最大概率状态的确定,则会产生统计误差。
利用鼎阳SDG5160信号源产生峰峰值为3V,频率49.0258642MHz的正弦波信号,输入到国内首款智能示波器鼎阳SDS3034(此示波器具备AIM功能,测量结果精确;并内置了硬件频率计,便于对比分析)中,得到测量参数结果如图2所示:
图2 时基档位为200ns/div时的测量结果统计
改变时基,测量结果如图3所示:
图3 时基档位为10ns/div时的测量结果统计
观察图片可以发现,在时基档位为200ns/div时,样本数为96,测量结果为49.02618MHz,更接近信号源输入频率49.0258642MHz,而时基档位为10ns/div时,样本数仅仅为4,测量结果49.02037MHz,偏离相对来说更大。
由于周期的测量结果依赖于样本数的多少,因而时基不同时,得到的频率和周期会有一定的误差。而硬件频率计测量并不依赖于这些算法,所以我们可以观察到,在时基变化的过程中,硬件频率计的测量结果为49.026MHz,几乎是没有变化的。
不得不承认,软件算法测量频率在技术上是存在一定缺陷的,这是所有数字示波器共有的;但通过上图可以发现,利用SDS3000系列独创的AIM(All In One Time Measurement——一次性测量屏幕上所有波形参数)功能进行测量,误差并不太大。
还有一种情况是当我们通过信号源SDG5160产生一个如图4所示的扫频信号
并输入到数字示波器,测量结果如图5所示 :
图4 信号源SDG5162输出方波扫频信号
图5 非规则信号的频率测量结果
图5是我们通过鼎阳SDS3034示波器观察到的波形情况,测量出的最小周期为117.4000us,最大周期为310.2998us,这是对屏幕上所有波形参数结果的统计。频率“Mean”值为5.778KHz,显然结果并不符合设定。但硬件频率计测量出来的频率为5.012KHz,几乎与设定的中心频率一致,这主要是因为硬件频 率计测频只是对波形脉冲个数的计数,并不关注波形细节,那么下面我们来具体了解一下频率计的工作原理:
二.频率计测频率
在传统的信号分析中,示波器测量频率时精度较低,受制于诸多因素,随机误差较大,频率计受的制约比较小,精度高、误差小,其测量频率一般有三种方法,分别是直接测频法、测周期法、等精度测频法。
- 直接测频法:
由时基振荡器产生的标准时基信号经过分频作为闸门触发器的标准参考,信号经过整形之后变为脉冲进入闸门,依靠闸门触发器对脉冲进行计数。当闸门宽度为1s时直接从计数器读出的数就是被测信号的频率,即每一秒闸门中有多少个脉冲通过,并不关注这些脉冲信号来到的早晚和规律(亦即信号波形细节),其原理图如图6所示:
图6 直接侧频法原理框图
直接测频法的实质就是记录在确定闸门开启时间T内待测信号经过整流后的脉冲个数N,通过这两项数据可计算待测频率fx:
fx=N/T (1)
图7 待测信号计数过程
闸门的开启时刻与脉冲进入之间的时间关系是没法确定的,在图中我们可以看出,相同的闸门开启时间T内,计数脉冲的个数可能是7也可能是8,存在着±1的计数误差,这是频率量化时带来的误差,故又称为量化误差,其表示为,相对误差表示为:
这种测量方法中闸门开启时间T为确定值,测量的精度主要取决于计数误差。对于1s 的闸门, ±1 计数误差为±1Hz,其相对误差为(±1/fx)*100%,可见,频率越大, 相对误差越小。所以此种方法更适用于测量高频信号,而非低频信号。
- 测周期法:
利用被测信号经过整形电路的脉冲信号作为闸门触发器的标准参考,对标准时基脉冲进行计数。当闸门宽度刚好是一个被测信号周期Tc时直接从计数器读出的数值(也就是标准时基脉冲的个数)就是被测信号的周期值。
图片8
此法的实质是在待测信号的一个周期Tc(确定值)内,记录标准时基信号脉冲个数 N,其数学表达式为(T为标准时基周期):
N的绝对误差为±1,其相对误差与直接测频法类似,表示为:
相对误差随着被测信号周期Tc的增大而降低,故此法适于测低频(周期大)而不适于测高频(周期小)的信号。
等精度测频:等精度测频方法也是利用闸门对被测信号脉冲计数,是直接侧频法的延伸,不过其闸门开启时间不是确定的值,而是利用了一定方式使得闸门时间始终为待测信号周期的整数倍,因此,有效避免了对被测信号计数所产生的±1误差,不会出现高频精度高,低频精度差的现象,达到了在整个测试频段的等精度测量。其测频原理如图9所示。
图9 等精度测频原理
图中的两个计数器(相当于两个闸门,分别是被测闸门Nx和标准闸门Ns)同时对被测信号和标准时基脉冲进行计数。在整个测量过程中,首先给出预制闸门开启信号(预置闸门上升沿),此时两个计数器并不开始计数,而是等到被测信号的上升沿到来时,计数器才真正开始计数。其测量过程如图10所示:
图10 信号测量过程
预置闸门关闭信号(下降沿)到时,计数器并不立即停止计数,而是等到被测信号的上升沿到来时才结束计数,完成一次测量过程。从图8中可以看出,实际闸门时间τ与预置闸门时间τ1并不相等,设在一次实际闸门时间τ中计数器对被测信号的计数值为Nx,对时基信号的计数值为Ns,被测信号频率为fx,标准时基频率为fs,则有:
由于fx计数的起始和停止时间都是由该信号的上升沿触发的,在闸门时间τ内对fx的计数Nx无误差(τ=NxTx)。若忽略时基信号频率fs本身的误差(晶振产生的误差),此时等精度测频的主要误差来源于对标准频率计数的误差(),相对误差为:
δ=|ΔNs|/Ns≤1/Ns=1/(τ·fs) (6)
由上式可以看出,测量频率的相对误差与被测信号频率的大小无关,仅与闸门开启时间τ和标准信号频率fs有关,说明了在整个频段的测量精度是等同的。
三.结语
一般来说,软件测量结果是通过对当前屏幕显示的波形数据进行运算得来的,通常只能提供4位左右的有效数字,测量精度也被限制在4位左右。而硬件频率计则是用硬件电路直接对被测信号边沿进行计数从而得到精确的频率结果,因此硬件频率计的频率测量精度通常远远高于软件测频法。
但如果就凭借这样简单的推测就认为硬件法一定优于软件法也是不确切的,一旦信号中有许多噪声叠加时,因为其触发没有规律可言,硬件频率计的显示结果会不断地跳动,无法捕捉其真实测量结果。而此时运用软件法从采集存储器当中截取出来的波形,由于采样的波形经过了滤波,噪声对其的影响相对较小,测量结果相对准确一些。我们可以通过信号源SDG5162设置一个峰峰值为40mv,频率为1KHz的小信号,由于其在传输过程中叠加了大量的噪声,所以送显示波器SDS3034发现如图11所示的现象:
图11 幅值为40MV的小信号测量结果
由图可以看出,软件法的测量结果为1.0000006KHz,而万用表项中内置的硬件频率计测量结果为15.483KHz。硬件测量的错误结果是由叠加噪声的误触发引起的,其图12所示:
图12 有噪声干扰和无噪声干扰的测量对比
从图中可以看出,噪声引起的一些毛刺被误认为是信号的上升沿和下降沿,整流时脉冲个数发生了变化,从而引起计数误差。所以在测量的时候,用户需要根据实际情况来选择合适的测量方式进行测量。
目前市面上大多数频率计是采用的10位或者12位/秒的频率分辨率,测量精度较高,测量频率范围广。而示波器测量频率往往受到其本身带宽、采样率等方面的制约,使得它所能测量的频率有限,且测量精度不高,但它在频率测量方面的优点是不可忽视的,它的波形和频率测量值在同一屏幕显示,还可以通过观察波形的周期自行计算,给人以直观的感受。波形图片还可以存储,导出,相当方便。并且数字示波器还带有简单的频谱分析功能,可以显示信号频谱。
参考文献:
1.杨霓清.用单片机实现精密测频的方法.山东大学学报,2003,33(5)
2.林占江, 林放. 电子测量仪器原理与使用[M] . 北京: 电子工业出社, 2007
3.汪进进. 关于数字示波器测量参数的第一算法
实时频谱分析仪与传统频谱分析仪的区别
自从人们实现了无线通信以后,无线通讯技术开始迅猛发展,发展到今天,移动网络、WiFi、蓝牙、RFID等技术百花齐放,RF频谱变得越发拥挤。有时候不同类型的RF信号会相互干扰。面对快速、随机变化的信号,在需要观察实时频谱的场景中,传统的扫描式频谱分析仪在需要观察实时频谱的场景中已经不能满足实时性的需求。
针对当前广泛使用的跳频、扩频等无线技术对测试设备的更高要求,鼎阳科技为广大工程师提供SSA3000X-R系列实时频谱分析仪,用以满足大家对实时频谱监测的需求。本文向大家简单介绍实时频谱分析仪与传统的扫描式频谱分析仪在处理信号方面的区别。
1.传统的扫描式频谱分析仪
传统的扫描式频谱分析仪(超外差式频谱分析仪)会根据设定的起始频率(屏幕最左边)一直扫描到终止频率(屏幕最右边)。扫描时长与Span设置、RBW设置等相关:Span越大,RBW越小,扫描一次所花的时间越多。在复杂环境的条件下,难以很好地获取到快速变化信号的频域信息。扫描式频谱分析仪扫描过程可参考下图1。
![传统扫描式频谱分析仪扫描过程](https://www.siglent.com/u_file/images/20_05_28/11.png)
我们使用扫描式频谱分析仪来分析瞬态信号(比如蓝牙信号)。通过图2可以看到每扫描一个Span得到的结果基本上都只有一个信号,但是测量的结果并不理想。频谱仪正在扫描图中红色小点所在频点上的信号,如果此时蓝牙信号出现在其他频点,扫描式频谱仪则无法扫描到该信号。为了捕捉完整的蓝牙信号,我们可以尝试使用Max Hold功能来记录出现过的信号(如下图3),但是Max Hold功能在使用一段时间以后,部分信号细节会逐渐被覆盖掉,最后甚至看不清一个完整的瞬态信号。
![扫描式频谱仪不同时间段扫描到的蓝牙信号](https://www.siglent.com/u_file/images/20_05_28/22.png)
![使用Max Hold功能记录信号](https://www.siglent.com/u_file/images/20_05_28/33.png)
由此可见,除非当待测信号刚好同时出现在扫描到的频点,否则待测信号是无法被扫描到的,遗漏的几率非常大。扫描式频谱分析仪很难捕捉到一些瞬态信号或者变化较快的异常信号,即使配合Max Hold功能记录这段时间扫描到的信号,也会导致部分信号细节被覆盖。与实时频谱分析仪的扫描结果相比(下图8),扫描式频谱分析仪在瞬态信号捕捉方面的表现难尽人意。
传统扫描式频谱分析仪还可以使用Swept FFT模式来处理信号。但是需要先采集一段信号并处理,处理完这段信号后再采集下一段信号,这种模式会存在死区,也很难完整采集到瞬态信号。因此,传统分析仪难以很好地获取瞬态信号的频域信息。
![传统扫描式频谱分析仪的一种扫频FFT工作模式](https://www.siglent.com/u_file/images/20_05_28/44.png)
2.实时频谱分析仪
相对于传统的扫描式频谱分析仪,实时频谱分析仪FFT输出处理方式不一样。传统频谱仪采用的FFT:采集信号—处理—显示。在频谱仪对数据进行处理的时候,这段时间内是采集不到信号的,信号遗漏的概率很大。
实时频谱分析仪的FFT采用无缝处理,采集数据的同时在后台做大量的FFT运算,数据处理的速度远大于数据采集的速度,可一次性对整个Span信号进行快速处理。如下图5,当处理速度大于采集速度的时候,可以保证在一直采集信号的同时,频谱仪也能对采集到的信号进行处理,不存在遗漏信号的问题。
需要注意的是,实时频谱分析仪并不是在所有的设置下都可以实现无缝处理,当Span和RBW都设置得比较大的时候,有可能导致数据采集时间小于数据处理时间,这种情况下实时频谱分析仪无法工作在无缝处理模式。
![实时频谱分析仪无缝处理](https://www.siglent.com/u_file/images/20_05_28/55.png)
在图5中,FFT每次处理完之后需要等待一段时间之后才会进入下一次处理,如果某个瞬态信号刚好出现在某个FFT窗的边缘,这个信号的幅度有可能被加窗影响到从而在FFT中得不到正确的体现,如下图6所示。
![加窗可能导致信号遗失](https://www.siglent.com/u_file/images/20_05_28/66.png)
为避免这种情况,实时频谱分析仪会采用overlap处理,通过多次FFT分析来尽量还原瞬态信号,如下图7。通过overlap处理,可以提高瞬态信号的截获概率和幅度测量精度。
![使用overlap处理避免瞬态信号遗漏](https://www.siglent.com/u_file/images/20_05_28/77.png)
实时频谱分析仪还有一个比较重要的参数POI,即截获概率。一般用100%POI最小持续时间来表征频谱分析仪对信号的稳定捕获和测量能力。当信号的持续时间大于最小持续时间的时候,频谱分析仪可以100%捕获到这个信号。反之,当信号持续时间不满足POI的条件的时候,频谱分析仪不能保证测量结果的精度。
与传统扫描式频谱分析仪相比,实时频谱分析仪在瞬态信号测量上有更为显著的优势,下图8中,使用实时频谱分析仪测量蓝牙信号,发现还有一个疑似wifi信号的干扰。
对比传统频谱分析仪,实时频谱仪在捕获瞬态信号方面有更大的优势,可以帮助用户更好地分析偶发或者随机的信号。
SSA3000X-R的RTSA模式支持Density、3D、Spectrogram、PvT等多种显示方式,方便多维度观察复杂瞬变信号,并有可设定的频率模块触发功能,同时具备模拟与数字调制分析、无线功率分析、VSWR反射测量、EMI测试模式等功能。在无线连接与移动通信测试、宽带信号捕获与分析、电磁兼容测试、天线与电缆测试方面上,SSA3000X-R是必不可少的工具。
关于示波器的波形捕获率(I)
进进按语
很久很久以前就想写写关于示波器的波形捕获率。 我对这个指标一直有一种复杂的心情。今天发布关于波形捕获率的第一篇,讲了一些故事。业内人士看了可能会比较有快感,但也可能觉得不爽; 对示波器的这个指标一直感到迷惑的老师同学们、工程师朋友看了可能觉得有趣。
这篇文章本想5000字可以写完,但写着写着,想说的话变得很多,现在看来一万字也挡不住了。这第一篇在7月初就写好了,但一直拖着没有写出第二篇。先发出这这第一篇,这样我就会被倒逼,快马加鞭写出第二篇了:-)如果您希望看到第二篇,请在微信中回复”期待“二字。这是在为我们加油!
欢迎阅读,欢迎拍砖!
波形捕获率是一个被过度炒作的概念和指标。必须承认的一个现象是,如果您问1000位工程师,他们可能都觉得这个指标很重要,但这1000位工程师在实际使用示波器的10年里却又没有真的用它来成功发现问题。但是,这个指标却一直“被重要”,不言而喻地重要。
为什么?
1,波形捕获率的故事就像“皇帝的新衣”的故事:为什么诸厂商一直在片面性地鼓吹波形捕获率的价值?
在我从业的11来,我很多次亲眼目睹了众多示波器行业销售人员在客户现场不断地为这个指标在打口水战,也亲眼目睹了私下里拿这个指标开玩笑。
这是一个充满了故事性和趣味性的指标,反应了示波器“数据处理技术”发展的路线,更反应了厂商的市场宣传如何利用Marketing talking的说法,强调一点,忽略其它,从而实现对用户的“洗脑”。
是时候该有个“小孩”出现,勇敢地谈谈“皇帝的新衣”了。这个概念有价值的一面已经说透,但是它在实践中“无力”的一面却没有被说穿。其实抹平这方面的“信息的不对称”很容易,但是身处其中的厂商谁都不愿意完全说破。
为什么诸厂商都一直片面性地鼓吹波形捕获率的价值?让我们来看看这个概念被炒作和神化的历史。
最早对波形捕获率的概念进行包装的是T公司,那时候的Marketing Talking是“第三代示波器”,“数字荧光示波器”,“同时具有模拟和数字示波器的特征”。但是,T公司的这个快刷新和现在多数厂商强调的波形捕获率不是一种技术,后面会详细说明。T公司特别成功的包装说法是:这是“第三代”示波器,是示波器技术划时代的革命。后来T公司用其擅长的方式定义了一个新的系列叫DPO系列。DPO系列的示波器面板上有一个按键,叫DPX。
但令人遗憾的事实是,早年鼓吹这个概念的T公司数字示波器的波形捕获率指标现在比鼎阳科技示波器的这个指标要差很多了! T公司鼓吹这个概念长达10年以上,最早应该是在1999年,我那时候还在读研,但还没有用过数字示波器。
T公司当年强调数字荧光示波器可以在单位时间内观察更多的波形,死区时间小,不会轻易漏掉异常信号,…… 这些确实是优点,其它厂商如果强调这个指标不是那么有用,似乎在暗示用户他自己的这个指标很差,“吃不了葡萄说葡萄酸”,因此,其它厂商只好忍气吞身,暗暗发力,试图能在技术上解决这个问题,否则在T公司一贯擅长的宣传攻势下是抬不起头的。
在其它厂商忍气吞声那么多年后,在2010年前后突然开始集体发声,一个接着一个地宣布自己的波形捕获率指标达到了业界之最。A公司宣布达到了33万次/秒,B公司宣布达到了50万次/秒,C公司宣布达到了100万次/秒,…… 国产示波器如鼎阳科技的SDS3000也达到了最大100万次/秒。 你方唱罢我方登场,相关的文章以学术论文的面目开始规模性出现,某中文搜索引擎搜索到的相关学术论文达到了1163篇。
这样的共同炒作之下,使得这个指标被称为了公认的“示波器第四大指标”。在这样的形势之下,谁还敢说这个指标没有什么用?! 于是示波器厂商都默认这个指标是有用的,都在不断追求这个指标的提升。
为了在竞争中利用“快刷新”赢得客户,T公司设计了一种DEMO板,它的销售人员每次演示时都会演示利用快刷新功能捕获到DEMO板发出的偶发性异常信号,然后在客户现场鼓动客户拿其他品牌示波器试一试能不能找出这个异常信号。显然,其它示波器是找不出来的。于是客户就知道了这种快刷新示波器果然厉害!
D公司在波形捕获率方面一直是个软肋。D公司的人员谈起这个指标都嗤之以鼻。
事实上从事高端示波器的销售人员在私下圈子里内心里都把这个指标当作笑话,但面对客户时又神乎其神地吹捧这个指标。于是在2008年,D公司发布了一个新技术,声称可以比T公司的DPX技术能更快地找到异常信号。D公司在中国市场将具有这种技术的示波器命名为“第四代示波器”。
其实D公司的销售人员知道这只是又一个针对快刷新的笑话的笑话。拿笑话打笑话,在公司内部心照不宣。这个新技术的名字叫TriggerScan。有了TriggerScan新技术之后,D公司就设计了一种DEMO板,它发出的一种异常信号可以用TriggerScan找到,但是用T公司的快刷新就是无法找到。遗憾的是,D公司的市场宣传能力上逊色于T公司。这个技术居然没有被神话!D公司不喜欢吹一些没有真正技术含量的技术!
有一天,我通过微信认识了一位兄弟,他邀请我去看他正在创业中研发的一款数字示波器,可以颠覆目前的所有示波器。他称之为一个划时代的产品,因为可以全捕获,没有死区时间。我当时听了很惊讶。心想如果示波器真的做到无死区,那真的是颠覆了。
于是我就找鼎阳科技的研发副总裁谈,希望他能接触一下这位民间研发者。没想到他只是轻描淡写地说,波形捕获率这个指标提升上去,现在对任何一家都不是难题了,只是定义产品时要考虑成本,如果使用这么贵的FPGA去处理1GS/s采样率获得的数据流,无大的死区是肯定可以的。在目前的技术条件下,能做到采集死区时间无限的接近零,或在一个短时间内的采集做到无死区是可以的,不可能做到持续的无死区采集。
后来我深入研究示波器底层硬件架构才知道,在当今所有圈内从事数字示波器核心研发的人员心中,这个指标取决于FPGA的资源和算法,但绝对谈不上是一个高端技术,只是做产品时要考虑的成本和指标之间的“平衡”。 接下来可能会拼的是将FPGA换成专用的芯片来实现快速刷新这个指标的提升。但这种芯片的设计对于中国人已属于“小菜一碟”,对于目前主流的示波器玩家如鼎阳科技,K公司,T公司都是小菜,都只是属于产品的定义问题。
我们可能有一个印象是模拟数字示波器几乎没有死区,因为T公司曾经宣传说DPX的优点就是保留了模拟示波器的特点。但是,模拟示波器其实是有大大的死区的,只是这个指标没有被说明过。模拟示波器扫描完一屏幕后切换回来,重新再扫描一屏幕,“从头再来”存在机械上的死区时间。
2,波形捕获率 VS 波形触发率 VS 波形刷新率 VS 肉眼刷新率
波形捕获率相关的名词有点混乱,有波形捕获率 VS 波形触发率 VS 波形刷新率 VS 肉眼刷新率等说法。有必要对这些行业人士长期在使用的相近的词汇的含义进行澄清。或者说我在这里定义一下我的理解。
数字示波器的波形捕获率,顾名思义,就表示示波器单位时间内捕获多少次波形,其单位在英文中写作“wfm/s”(wfm是waveform的简写),中文现在一般就写作“次/秒”、“帧/秒”。
譬如鼎阳科技智能示波器SDS3000系列波形捕获率最大可达到100万次/秒,就表示示波器每秒钟能捕获100万个波形并显示在示波器的屏幕上。 而同类基于Windows操作系统的示波器的波形捕获率很多只有每秒2500次,有的只有几百次。
怎么理解“每秒捕获多少次波形”呢? 如图1所示是使用鼎阳科技智能示波器SDS3000系列捕获一个脉冲在变化的PWM信号,示波器在稳定触发上升沿之后的任意瞬间,都能在示波器屏幕上看到这样似乎由多种脉宽 “组合”在一起的波形。但实际上波形不可能是这样的。
图1 鼎阳SDS3000系列采用SPO技术,单位时间内同时捕获显示大量的波形信息
实际上的波形是如图2的一组波形所示,单次捕获的脉宽是“一个”方波信号,每次的方波的脉冲宽度有所变化, 但由于1秒的时间内人的肉眼只能识别出60Hz左右变化速度率的信号,即人的肉眼刷新率只有60Hz 左右(有的说法是75Hz),而示波器波形捕获率则可能是100万次,所以,肉眼在1秒内看到的是100万/60=1.666万个,就是说屏幕上看到的波形在1秒钟内由1.667万个方波“叠加”在一起。
每秒捕获100万次波形,就相当于示波器每秒有100次的单次触发。 除了早年T公司示波器搞的DPX,是波形刷新率,纯粹是“象素”的刷新,现在我们谈的波形捕获率实质就是波形触发率,触发一次,示波器上的波形就刷新一次。 波形捕获率最终反应在示波器的屏幕显示上也就是波形图形的刷新,所以波形捕获率也可以理解为波形刷新率,但波形刷新率不能理解为波形捕获率。这有点玩文字游戏的味道,用“刷新”一次强调的是DPX技术在屏幕上显示的只是“象素”,不是真正ADC采样滞后捕获的数据样本的显示。这是DPX的天生缺点。
图2 单次捕获,显示”重叠”的波形是由一组脉宽变化的波形组成
更通俗地说,我们平时肉眼看到示波器上的波形一直在变化,但肉眼能观察信号的变化的速率只有60Hz左右,60次/秒。肉眼看到示波器上的波形在“不停地”变化,但实际上波形这次变化到下次变化之间对应的电路信号有“极大量”的信号都已经“被漏失”了,并没有显示在示波器的屏幕上。
这次捕获到的波形和下次捕获到的波形,它们之间的时间间隔就是捕获周期。波形捕获率,换句话说就是捕获周期的倒数。
怎样从示波器工作原理上理解 “捕获周期”呢? 信号经探头后先进入示波器输入通道,首先进入放大器,ADC,采集存储器,然后示波器会将采集存储器中离散的数据点传输到CPU单元进行显示处理,测量和运算。 采集过程和显示、处理过程组成了一个完整的捕获周期。
如图3采集过程其实是非常快的,因为都是通过芯片硬件实现的。 ADC将模拟信号转换为数字信号的时间相对于将采集存储器的数据送到CPU并进行测量分析及送到屏幕上显示的时间是忽略不计。
图3 数字示波器的工作原理示意图
“数字示波器在捕获周期的大部分时间都用于对波形样本的后处理上,在处理数据样本的过程中,示波器就处于无信号状态,无法继续监测被测信号。从根本上来说,死区时间就是数字示波器对波形样本后处理所需要的时间。 图4显示了一个波形捕获周期的示意图。捕获周期由有效捕获时间和死区时间组成。在有效捕获时间内,示波器按照用户设定波形样本数进行捕获,并将其写入采集存储器中。
捕获的死区时间包含固定时间和可变时间两部分。固定时间具体取决于各个仪器的架构本身。可变时间则取决于处理所需的时间,它与设定的捕获样本数(存储深度)、水平刻度、采样率以及所选后处理功能(例如,插值、数学函数、测量和分析)多少都有直接关系。死区时间比是死区时间和捕获周期之比,而捕获周期的倒数就是波形捕获率。这两者都是示波器的重要参数,它们之间是有关联的。”
图4 数字示波器的一个捕获周期
每一个捕获周期的起点在哪里? 触发! 触发一次,捕获一次。 概言之,示波器将模拟信号离散成的数字化的”点”,这些点被暂时保存保存在”采集存储器”里。 如果没有触发,采集存储器按照“先进先去”的原则,离散化之后的新的数据会不断进入采集存储器,老的数据会丢失掉。 示波器每触发一次,示波器就就采集到的信号送到屏幕上显示一次。触发一次,捕获一次!
在参考文献[1]中给出的解释其实已经很能说明问题,在此重复如下:
我们可以将示波器的存储器理解为环形存储器。示波器不断采样得到新的采样点会填充进来,老的采样点会自动地溢出,这样周而复始的过程直到示波器被“触发信号”“叫停”或者间隔一定长的时间被强迫“叫停”为止。“叫停”一次,示波器就将存储器中保存的这些采样点“搬移”到示波器的屏幕上显示。这两次“搬移”之间等待的时间相对于采样的时间极其漫长,被称为“死区时间”。
上述过程经常被这样打比方:存储器就像一个“水缸”,“水缸”的容量就是“存储深度”。如果使用一个“水龙头”以恒定的速度对水缸注水,水龙头的水流速度就是“采样率”。当水缸已经被注满水之后,水龙头仍然在对水缸注水,水缸里的水有一部分会溢出来,但水缸的总体容量是保持不变的。在某种条件下,水缸里的水将被全部倒出来,周而复始。
这里面的“某种条件”,相对于示波器就是触发信号到来的时刻。 所以触发一次,示波器就会采集一次波形,但显示在屏幕上的波形“动一次”肉眼看到的是“一堆波形”,因为1秒时间内示波器捕获的波形太多了,肉眼反应不过来了! 这时候,您可能会觉得“慢”一点更好,就像传统的那些“慢”示波器,肉眼看到的体验更好,肉眼知道波形在按什么样 的特点在“动”。 瞧,多么纠结! 且看下回分解!
参考文献:
[1] 关于数字示波器的存储幅度,汪进进,鼎阳硬件设计与测试智库
如何理解示波器探头的工作电压范围、衰减系数、耦合阻抗等指标?
怎么理解探头的一些指标?
1、探头的工作电压。例如2.5G有源单端探头HF2500标称的工作电压是16Vpk,破坏电压为40Vpk。这两个电压和被测信号频率是否相关?如果有关,按照下图在1GHz频率下(图中红色线条标注),工作电压是U2只有2Vpk左右,破坏电压U1只有16Vpk左右?而频率上升到2GHz时,工作电压仅能达到1Vpk左右?但这样的幅度并不能覆盖大部分的待测信号情况。
2、有源单端探头ZS1X00的手册注明衰减系数为10X,电路上是如何实现这样的衰减的,如下是ZS1X00手册中的等效电路
3、可以看到不同探头在示波器上对应可以选择的耦合方式也是不同的,例如:
PP011 | ZS1000 | HFP2500 | D620-SI/QC/SP |
DC50Ω、DC1MΩ、AC1MΩ、GND | DC1MΩ、GND | DC100KΩ、GND | DC、GND |
探头ZS1000选择DC1MΩ耦合方式,从ZS1X00的阻抗-频率曲线上看,当频率为100KHz时探头的对地阻抗为1MΩ左右,如果示波器的耦合阻抗也是1MΩ,是否探头和示波器的共同阻抗为1MΩ//1MΩ=0.5MΩ?如何计算探头和示波器的共同阻抗?示波器的耦合阻抗1MΩ是否也和频率相关,是否也有阻抗-频率曲线?
欢迎和我们交流!
电磁兼容测试:传导测试
进行电磁兼容测试需要相对专业的设备和技术,并且对于大多数公司来说,进行该项测试的费用也是相当高昂的。但是一般情况下大多数产品是需要通过专业的检测机构进行电磁兼容测试认证,才能完成一个完整的产品开发周期,从而被客户认可。 遗憾的是,很多产品都难以一次性通过电磁兼容测试。测试失败以后,工程师们需要解决在兼容测试中出现的问题的同时花费高额费用进行再次测试,这不但增加了成本而且延迟了产品的发布时间,这些对于公司来说都是重大的损失。 幸而,我们可以通过一些简易的设备和技术来帮助减少这种时间成本上的损失:预兼容测。
引言
进行电磁兼容测试需要相对专业的设备和技术,并且对于大多数公司来说,进行该项测试的费用也是相当高昂的。但是一般情况下大多数产品是需要通过专业的检测机构进行电磁兼容测试认证,才能完成一个完整的产品开发周期,从而被客户认可。
遗憾的是,很多产品都难以一次性通过电磁兼容测试。测试失败以后,工程师们需要解决在兼容测试中出现的问题的同时花费高额费用进行再次测试,这不但增加了成本而且延迟了产品的发布时间,这些对于公司来说都是重大的损失。
幸而,我们可以通过一些简易的设备和技术来帮助减少这种时间成本上的损失:预兼容测试技术可以找出并解决设计中的问题,从而免去多次使用昂贵测试设备的经济负担。
在这篇文章中,我们将要介绍如何用预兼容测试去进行传导测试。所涉及的相关技术可以减少重复进行兼容测试的次数,从而节省时间和金钱,同时可以使产品设计者对产品电磁设计方面的相关知识更了解,这些知识和经验也对设计者将来的相关产品设计大有裨益。
预兼容测试可以帮助你找到并解决可能阻碍你通过兼容测试的问题,但必须要知道,在大多数实验室环境下,预兼容测试并不能完全替代兼容测试!
传导干扰
传导干扰测试包括测量由任何连接在一起的线缆(包括电源线,信号线或者数据线)带来的射频干扰。大多数制定的电磁测量标准都主要关注测量市电交流电源线,因为电源线缆上过多的非供电能量会导致该相同电网下设备间的相互影响,尤其是对于调幅无线电信号或者是其它广播频段的影响尤为严重。
传导干扰测试需要一台频谱仪(如图1),两块做地使用的接合金属板,和一个线路阻抗稳定网络(LISN)。LISN为待测设备(DUT)提供电源,并且把待测设备射频信号通过电源线或信号线向外发射的干扰提取到频谱仪来测量。我们会加上瞬态保护以及衰减来减少待测大信号可能对频谱仪的损坏。
图1 频率范围为2.1GHz的频谱仪
图2 所示为一个典型的传导干扰测量的模型
图2 典型的传导干扰配置,用衰减器和瞬态抑制器来保护频谱仪的输入端(DUT指被测设备)。
搭建一个传导干扰试验模拟实验室相对经济可行,而且这种设备对环境中的其他射频信号是不敏感的,这使得传导预兼容测试的结果数据比辐射预兼容测试的结果数据要“干净准确”得多。
设备清单
频谱仪/EMI接收机:测量相对于频率的射频功率。频谱仪的最大输入频率不低于1GHz,DNAL最高为-100dBm(-40dBuV),至少10KHz的最小分辨率带宽(RBW)
瞬态抑制器(选配):频谱仪是敏感的射频能量测量设备,瞬态抑制器可以限制信号中瞬态毛刺的能量,避免造成频谱仪输入端口被击穿损坏。
衰减器(选配):对于可能存在的连续能量输入,使用几个3dB或10dB衰减器,以保护频谱仪的输入端免受意外的大功率信号损坏。
LISN:把传导辐射从待测设备的电源线中耦合到频谱仪或者EMI接收机上,需要选择符合测试标准和电气需求的LISN。
注:通读你的LISN用户手册!有些设计可能存在一些危险电压,需要对设备安全操作!
水平地平面:导电金属片的尺寸至少要比被测设备外周的宽多15厘米,长度比其长40厘米,以适应从被测设备到垂直接地平面的间距。
垂直地平面:导电金属片的尺寸大于被测设备的外周宽多15厘米,长度长80厘米,以适应从被测设备到水平接地平面的间距,接地平面应使用低阻抗(例如导电带)沿着两个平面对接的地方互相连接。
LISN连接片:短金属导电片将LISN接合/接地到水平接地层,优先选择低阻抗(可能是薄的金属带)的导电片,尽量不要使用导线连接。
不导电台面:比待测设备大一点。可以是木制的,塑料制的或者是玻璃纤维的,一般不建议选择金属制的。
环境设置
- 把待测设备放到一个不导电台面的中间位置。
- 将水平接地平面放置在被测设备下80厘米处,并正好位于被测设备正下方。
- 将垂直接地层放置在距离被测设备中心40厘米的中心。并连接到水平地平面。
- 使用LISN连接片将LISN连接到水平接地层。
- 将频谱分析仪/EMI接收机放置在距离水平接地平面/测试区域边缘几英尺处,并将其接通电源。
环境检查
- 对频谱仪/EMI接收机进行上电预热。
- 给LISN通电,但是此时不要给待测设备通电
- 将LISN 射频输出连接到频谱分析仪的射频输入,同时加上瞬态限制器以及3dB或10dB的外部衰减器
配置频谱仪
- 设置起始频率为150kHz
- 设置截止频率为30MHz
- 设置RBW为1MHz
- 将检测器设置为正峰值
- 将LISN校正数据输入频谱分析仪,并启用校正功能以确保测量的准确性
- 许多频谱仪具有创建Limit限值模板的功能。如果你的频谱仪有这个功能,可以把感兴趣的特定限值添加到频谱仪里。这样做可以可视化地显示您测试的值是否超过限值从而简化评估
- (选配)如果使用瞬态抑制器,请将校正数据输入频谱仪,并启用校正功能以确保测量的准确性
- (选配)如果使用外部衰减器,请将校正数据输入分析仪,并启用校正功能以确保测量的准确性
- (选配)一些EMC限制标准的单位是dBuV和频率对数。大多数的频谱仪允许设置单位为dBuV,水平标度单位为频率对数。
- 如果没有输入连接,请观察频谱分析仪上的迹线。它应该是平滑而且非常低的功率值。你也可以将RBW减少至10kHz或者直接关闭输出。这时的显示即为仪器的本底噪声。此时,我们可以把以上述步骤频谱仪上所显示的图片都保存下来,以供之后参考。
下面的图3展示了如上所述配置的频谱分析仪的开路频谱:
△图3 频谱分析仪的开路的本底噪声。注意dBuV幅度单位,对数频率缩放和蓝色限制线。这些功能使扫描评估更方便
第一次扫描:
- 断开LISN输出与频谱分析仪输入的连接
- 将电源线从被测设备连接到LISN。注意不要缠绕电源线。 确保它平放,并且不经过被测设备和水平地平面之间
- 给被测设备上电
- 再次把LISN的射频输出连接到频谱仪的射频输出
注:这些步骤给敏感的射频前端增加了一层保护。在这种情况下,对于一些具有可以减小抑制特点的LISN,这些步骤就是可用的。
- 观察扫描结果并且标注任何3dB以内或者是超过限值的峰值。这些都是问题可能发生的区域。
注:你很有必要把频谱仪所测结果以及实验设置,仪器设置等任何与被测设备相关信息保存下来,无论是通过频谱仪的屏幕截屏功能还是用照相机。
如下图4所示一个峰值扫描失败的结果。
△图4 初步扫描显示超过B级限度的传导干扰
成功通过扫描和总结:
上面阐述的第一次扫描,是为了给寻找潜在干扰能量提供一个比较好的参考。但是,频谱仪的参数设置可以与大多数规格书中标示的设置不同,我们建议对频谱仪进行如下设置:RBW = 10kHz, Detector = Positive Peak, Span = 30MHz。这些设置可以使你尽快对问题区域进行分析,而且快速对待测设备的传导辐射能有一个基本概念。
以下是一些可进行更全面测试的参考技术方法:
1.大多数频谱仪没有预选滤波器。如果你使用一台没有预选滤波器的频谱仪,那么你得到的峰值可能是假的,这是由于带外信号混入到待测信号里面,没有预选滤波器的频谱仪有可能会得到一个错误的峰值。
你可以外加一个衰减器(3或者10dB)来测峰值。实际峰值减少的量将会和加入衰减的量一致。如果峰值减小的量比加入比衰减量大,那么这就可能是一个假峰。在你的测试结果记录上对这个假峰进行标注。你也可以使用标准的EMI滤波器或者预选器,这些操作虽然可以加快测试但同时也会带来高成本。
以下图5是一个典型的峰值测试实验,黄色的轨迹是没有使用衰减器得到的,紫色的则是给频谱仪的射频输入端外加了一个10 dB的衰减器得到的,这种情况下,峰值下降的量和所添加的衰减量是一致的。这帮助我们确认了该峰值是真峰而不是带外信号的产物。
△图5 使用频谱仪的标记功能对两次扫描结果进行标记黄色的轨迹是没有使用衰减器得到的,紫色的则是给频谱仪的射频输入端外加了一个10dB的衰减器得到的
2.一些频谱仪会选配非常接近标准兼容测试所需的工具包
- EMI 滤波器 (根据不同频率而选择6dB或者3dB的标准)
- RBW 带宽:200Hz, 9kHz, 或120kHz
- 准峰值检波器
假设DUT待测电路中具有突发的RF,间歇数字通信或瞬态输出等信号,如果可能的话,那就需要使用EMI滤波器、RBW带宽,准峰值检波器再次对待测设备进行扫描。
通过将分析仪的中心频率设置为感兴趣的峰值频率去对失败的峰值进行放大观察。设置扫宽为指定标准RBW的10倍(如果指定RBW为9kHz,那么设置扫宽为90kHz或100kHz),然后开启EMI滤波功能,使用准峰值检波器,RBW设为9kHz,观察扫描结果。
准峰值检波器进行扫描时间会比较长,准峰值测量结果也不会超过正峰值,但是使用准峰值扫描可以减少设计方案所用的时间。
3.一些频谱仪有最大保持功能,可以保存下来每一次扫描频率的最高幅值。你可以通过设置一条迹线为清除写入状态来表示当前输入的射频信号,并且设置另一条迹线为最大保持状态。这些操作使你可以对比待测设备的变化和在最糟糕的情况下获得的数据或者是使用最大保持功能所保存下的数据。
4.如果可能的话,你可以使用光标工具和峰值记录表来清楚的获取峰值的频率和幅度。
△图6 使用峰值表和光标的频谱仪SSA3000X界面
软件
为了减少用户的EMI预兼容环境设置,收集数据和测试报告整理的繁琐步骤,EasySpectrum软件给用户提供了一个集中设置,快速存储和回调校准数据和设置限制线功能,整理扫描报告的环境。
△ 图7 由鼎阳的EasySpectrum上位机软件所获的EMI扫描报告
总结
只要是连接到交流电网上的电器产品都需要通过电磁兼容传导测试。虽然各公司可以进行自我认证,但建议由第三方实验室进行严格的兼容性合规测试。只是第三方实验室的测试花费比较高,并且时间较长。而通过使用一些简单的工具,你可以进行一些室内的预兼容测试,从而减小产品的整个生产周期,降低设计成本,减少兼容测试的次数,也为将来的产品设计积累经验。
一文读懂高速信号测试!
电源的纹波和噪声是什么?怎么测?
前言
在测试电源波形的时候,我们经常会发现有一些上下波动的现象,有人说这是纹波,有人说这是噪声,那到底是什么呢?
纹波?噪声?
为了弄懂这个问题,我们首先得明白什么是纹波,什么是噪声。
纹波是由于直流稳定电源的电压波动而造成的一种现象,因为直流稳定电源一般是由交流电源经整流稳压、滤波等环节而形成的,由于滤波不彻底,就会遗留交流成份,这种叠加在直流稳定量上的交流分量就称之为纹波。
![](https://siglent-prod.siglent.com/wp-content/uploads/2024/09/d711037df0c479e0ee38d063fc0363c.png)
电源纹波能影响设备性能和稳定性,进而会影响到整个系统的正常运行。通常来说,更加昂贵的线性直流电源纹波小,而经济实惠的开关电源纹波大,所以也更需要关注相关参数。
![](https://siglent-prod.siglent.com/wp-content/uploads/2024/09/1af4f9603f908c55d3a32fc46a104eb.png)
![](https://siglent-prod.siglent.com/wp-content/uploads/2024/09/3d24a505115d91eda9ecff6831aa3f3.png)
纹波的危害主要有以下几点:首先,纹波会导致电器上产生谐波,还会降低电源的使用效率。高频电源纹波可能会产生浪涌电压或电流,影响设备的正常运行,加速设备老化。电源纹波也会干扰电路的逻辑关系,导致其无法正常工作,还会带来噪声干扰,从而影响信号的测量,甚至会损坏设备。
噪声则与纹波不一样,不呈周期性的变化。它的产生原因有两种,一种是电源自身产生的;另一种是外界电磁场的干扰(EMI),它能通过辐射进入电源。它可能导致设备性能下降,对灵敏的电子元件和信号传输有干扰,可能会产生杂音、图像不清晰、通信干扰等问题。
测量准备
我们以一个开关电源的电路板为例,这个电路板通电后可以输出6.5V的电压。
![](https://siglent-prod.siglent.com/wp-content/uploads/2024/09/585e9dfbd7beeab0d3d1537ba417925.png)
如果想要测量电源纹波和噪声,示波器是最常用的设备,而合适的示波器设置、测量方法是保证正确测量精准的关键。
首先,由于纹波和噪声幅度都比较小,所以我们需要一台精度高的示波器,这次我们选择了SDS800XHD12bit示波器来作为测试示例。
![](https://siglent-prod.siglent.com/wp-content/uploads/2024/09/c1b54f1d7907d410c0144aadb162884.png)
在纹波和噪声测量时,还需要对探头进行改装:拔去探头的探钩和接地线,为探头换上接地环。
如果使用了接地线,由于开关电源的切换会在空间产生大量的电磁辐射,而示波器探头的长地线又恰好相当于一根天线,会把空间的电磁干扰引入到纹波当中,造成纹波、噪声的测量值虚高。
和噪声幅度都比较小,所以我们需要一台精度高的示波器,这次我们选择了SDS800XHD12bit示波器来作为测试示例。
![](https://siglent-prod.siglent.com/wp-content/uploads/2024/09/a543a3e8287d988d5137e69fa38f1c4.png)
比较重要的一步是将探头的档位调节至x1档位。这一举措的目的在于降低噪声影响。因为电源纹波、噪声的幅值一般都比较小,如果设置为10:1的话,信号衰减十倍进入仪器,再通过数字计算放大十倍,这个过程会放大很多噪声,从而导致纹波测量值偏高。
随后,我们将示波器的通道耦合设置为“交流耦合”,滤除信号本身直流分量,减小高频噪声,测量前的准备就基本完成了。
纹波测量
在纹波测试中,需要进行“带宽限制”设置,将示波器的带宽限制在20 MHz。这一操作主要是为了避免数字电路的高频噪声影响纹波的测量,尽量保证测量的准确性。
在设置完带宽后,接上探头,调整垂直幅度档位至10 mV/div,就能看见纹波的形状了。
此时,我们还可以打开示波器的“测量”功能,在测量纹波时,我们较为关注“峰峰值”和“均方根(RMS)”,打开测量这两个类目,可以得到示例的电源板的纹波在该次测量结果为:峰峰值20 mV,均方根2.6 mV。
![](https://siglent-prod.siglent.com/wp-content/uploads/2024/09/dd5df2b9a881dfe40dc25b22d14aef6.png)