Journal of Image and Signal Processing
Vol.3 No.04(2014), Article ID:14232,6 pages
DOI:10.12677/JISP.2014.34012

The Key Technologies of Maritime Video Enhancement: A Survey

Da Yang1,2, Xiaotong Wang1, Guanlei Xu3

1Department of Navigation, Dalian Naval Academy, Dalian

2PLA Unit 91550, Dalian

3Department of Military Oceanography, Dalian Naval Academy, Dalian

Email: yangda1977@163.com

Copyright © 2014 by authors and Hans Publishers Inc.

This work is licensed under the Creative Commons Attribution International License (CC BY).

http://creativecommons.org/licenses/by/4.0/

Received: Sep. 17th, 2014; revised Sep. 26th, 2014; accepted: Sep. 30th, 2014

ABSTRACT

Electro-optical surveillance systems have been widely used in maritime fields. However, severe degradation of video captured on the sea limits the usage. In view of the main reasons of video degradation which are sea fog and jitter, we briefly reviewed the technologies of defogging, stabilizing and non-reference image quality accessment, to enable researchers to understand the situation and the latest developments. Finally, further discussions are pointed out on future development.

Keywords:Video Enhancement, Defogging, Video Stabilizing, Image Quality Accessment, Review

海上视频增强关键技术研究进展

杨  达1,2,王孝通1,徐冠雷3

1海军大连舰艇学院,航海系,大连

2中国人民解放军91550部队,大连

3海军大连舰艇学院,军事海洋系,大连

Email: yangda1977@163.com

收稿日期:2014年9月17日;修回日期:2014年9月26日;录用日期:2014年9月30日

摘  要

光电成像系统在航海领域得到了广泛的应用,但海上获取的视频常常降质严重,限制了其作用的发挥。针对海上视频图像降质主要原因是海雾和舰船摇晃与机械振动造成的,本文对海上视频去雾、稳像和视频图像客观无参考质量评价三个方面的关键技术进展进行简要综述,目的是使相关研究人员快速了解发展现状和最新动态。最后总结了海上视频增强的发展方向。

关键词

视频增强,去雾,稳像,图像质量评价,综述

1. 引言

视频监控系统在航海领域得到了越来越广泛的应用,对海上成像视频进行增强是一个重要而现实的问题。海上成像视频与其他环境成像视频有很多共性,也有其自身特点,最主要的特点是海上视频受各种不良成像条件的影响频率更高、降质更严重。因此,研究海上视频增强技术对于保障海上航行交通安全具有重要实际意义。

针对海上视频图像降质原因主要是海雾导致能见度低、成像模糊,机械振动与舰船摇晃带来的视频抖动造成的,本文对视频图像的去雾、稳像及图像客观无参考质量评价三个方面的关键技术进展进行简要综述,目的是使相关研究人员快速了解发展现状和最新动态。最后总结海上视频增强的发展方向。

2. 去雾主要技术概述

图像去雾技术最早起源于地球物理研究中对飞机航拍和卫星遥感图像的增强研究工作[1] ,随着CCD成像设备的发展及其在交通、监控、日常生活等各方面的广泛应用,使得对雾天降质图像的恢复成为一个研究热点。现有的去雾方法根据是否依赖大气散射模型,分为基于物理模型的方法和非物理模型方法两大类[2] [3] 。

由于在大多数成像应用中,对比度和颜色的校正能够在很大程度上改善图像质量,因此,近期基于物理模型的工作几乎均只考虑大气因素造成的对比度下降和颜色饱和度下降、偏色这两种效果。[4] 中推导出在雾霾天气下单色大气散射模型,近期基于物理模型的研究[4] -[11] 均建立在该模型之上。该类方法实质是利用大气散射模型或其变形形式,求解场景反射率。依据近似计算模型中参数时所需的成像系统或场景信息的不同,基于物理模型的方法又可分为3类:利用同一场景不同天气条件或不同偏振程度的多幅图像进行去雾[4] [5] ,利用用户交互估计景深对单幅图像去雾[6] 和利用图像数据各种假设恢复场景信息的单幅图像去雾[7] -[11] 。其中最后一类方法仅使用单幅图像,且不需用户交互,因此是基于物理模型方法中研究最多的一类方法。而这类方法中最受关注的是基于暗原色的方法[10] 。

非物理模型去雾方法从人的视觉感受效果出发,直接利用数字图像处理技术通过增强对比度和校正图像颜色达到去雾效果。根据人眼视觉系统(HVS)的颜色恒常性理论,即人眼对颜色的感知与物体反射特性密切相关而与光照亮度相对独立,非物理模型去雾方法可分为3类:只进行对比度增强而不考虑颜色校正的对比度增强方法,仅考虑颜色校正的白平衡方法和同时实现了对比度增强和颜色校正的彩色增强方法。第一类方法主要利用各种全局或局部对比度增强方法[12] [13] 或者结合HVS全局和局部自适应特性[14] [15] ,对图像的亮度分量进行增强,而对色调和饱和度分量保持不变。第二类方法都是建立在表面反射或光照颜色统计特性的假设条件基础上的。该类方法又可分为基于WP(white-point)算法、GW(gray-world)算法等图像低阶特征假设的方法[16] 和基于特定数据库学习的方法[17] 两类,前者可以快速有效地校正雾霾图像的颜色。第三类方法是在研究HVS特性的基础上提出的Retinex算法[18] [19] 和自动颜色均衡化(ACE)算法[20] ,它们是重要的局部对比度增强算法和颜色恒常性算法,特别是Retinex算法成为近年来备受关注的研究热点[21] 。

对于视频去雾,除了直接将快速单幅图像去雾算法应用与每一帧外,其余的方法主要是将背景图像与前景分开,分别采用相关的去雾算法进行去雾处理,再将两者去雾结果融合得到最终的去雾视频[22] 。此外,2011年,郭潘等[23] 提出了建立在雾气分析基础上的视频去雾方法。该方法认为雾既可以看做是覆盖在视频帧上的一层遮罩,又可以视为大气散射模型变形表达式中的光路传播图,从而提出两个去雾方法:一个是利用Retinex算法将各帧有雾图像的亮度图分离出来,然后结合图像自身的深度信息得到该视频各帧的雾气遮罩,最后在对数域中减去雾气遮罩并进行自适应对比度增强;另一个是先由暗原色先验信息估计出大气光亮度,再通过背景图像得到视作雾气的光路传播图,进而求出场景反射率,最后由大气散射模型得到去雾视频。这两个方法在获得较优的去雾效果的同时,提高了算法的处理速度。2012年,Yoon等[24] 提供了用HSV颜色空间彩色校正的自适应视频去雾方法。该方法首先在有雾视频HSV颜色空间的饱和度通道(S)中检测大气区域,并在大气区域中估计大气亮度,然后在视频的亮度(V)通道利用加权参数计算生成大气透射图。视频帧的大气亮度和透射图估计都考虑了连续帧之间的时间相关性,并且通过H通道和S通道的时间变化率对颜色退化进行校正,由此有效地实现了视频去雾。2013年,甘佳佳等[25] 提出一种基于精确大气散射图的单幅图像快速去雾算法。该方法首先利用双边滤波进行大气散射光的初始估计,然后通过引入像素值与平均灰度值的比较,得出更加准确的大气散射图,最后依据雾天退化模型复原场景并对结果图像进行色调调整和局部去噪的优化处理。由此可得到更佳的去雾效果,并且采用GPU加速后可以满足实时应用的需求。

目前,去雾技术的研究仍然集中在更精确大气散射图的估计、自动多尺度对比度的增强和更有效的颜色校正上。

3. 稳像主要技术概述

视频稳像技术的发展始于20世纪80年代中期成像传感器在军事上的应用[26] [27] ,它的出现在很多场合下代替了价格昂贵且复杂的机械稳像和光学稳像平台。该技术与图像配准、运动估计、目标跟踪等技术的发展密切相关。文献[28] 按照经典基于运动估计稳像算法的三个步骤,系统详细地介绍了运动估计、运动校正和图像补偿的各类主要技术方法,并做了比较分析。文献[29] 将电子视频稳像算法分为两类:基于运动估计的稳像算法,和无显式运动估计的稳像算法。在简要归纳了基于传统运动估计的稳像技术主要方法和思路基础上,重点介绍了光流视频稳像[30] 和基于稳健(robust)特征轨迹的视频稳像[31] 这两种无显式运动估计的稳像算法。

现有的视频稳定方法其基本思路都是通过估计并平滑相机的2D运动[32] 或3D[33] 运动形成一个新的稳定的视频。通常2D的方法更稳定更快速,因为这些方法在连续帧之间只需要估计一个线性变换(仿射变换或homography)。但2D线性模型太弱以至于无法解决因场景中景深显著变化引起的视差问题。而3D方法可以从原理上解决视差问题并生成更好稳像效果。但其运动模型估计对各种像特征跟踪失败、运动模糊、相机缩放和快速旋转等这类视频降质缺乏鲁棒性。简而言之,2D方法更鲁棒但可能牺牲了质量,例如引入烦人的几何变形或生成视频稳像效果不佳,而3D方法可以获得更好的稳像效果但缺乏鲁棒性。

近两年出现的一些方法[34] [35] 成功地结合了上述两类方法的优点。Liu等[34] 通过在2D特征轨迹上应用一个低阶子空间约束,对3D重构进行了一个有效简化。Goldstein等[35] 通过利用“对极转移”技术避免了3D重构。这些方法放宽了从3D重构到2D长特征跟踪的要求。但总体来说,需要长特征跟踪(典型是要超过20帧)使这些方法难于处理消费级视频中快速运动、快速场景变换、大的遮挡等更具挑战性的情况。

2009年刘等[36] 提出一种被称为内容保持变形(CPW)的图像变形技术被成功用于很多有挑战性的条件下的视觉稳像。其基本思想是真实的密集变形可以由稀疏的通过仔细选择规范项重构出的3D点的位移扩散来近似,只要图像各部分都有足够的特征用于跟踪,CPW方法就可对很多情况都可生成当前最佳效果。但当存在大面积无纹理区域无法获得稀疏的3D特征点时,CPW方法失效。针对该问题,2013年Zihan Zhou等[37] 通过观察发现大面积无纹理区域通常对应于场景中的大面积平坦表面,因此提出混合方法来解决CPW方法失效问题。该方法首先把每一帧图像分割为逐块的平坦区域和用Markov随机场标识的非平坦区域,然后对平坦区域通过估计单应性矩阵计算出一个新的变形,而对非平坦区域仍然使用CPW方法处理,最后将两部分结果无缝融合到一起就形成了最终的稳像视频,有效地解决了CPW方法对于特征稀疏的部分变形仍然明显的问题。

此外,2013年Shuaicheng Liu等[38] 为了实现鲁棒且高质量的稳像结果,提供了一个功能更强的2D相机运动模型——相机路径束模型——通过对每帧画面划分成网格,将每个网格作为一个子相机,同时保持了多个空间变化的相机路径,这个灵活的模型可以很好地处理由视差和快门旋转引起的非线性运动。该方法由基于网格变形的运动表示和将相机路径束整体考虑进行自适应空时平滑两个部分组成,由于它只需要两个连续帧之间对应的特征,因此保持了鲁棒性并简化了2D方法。

当前,对于存在遮挡、光照变换、动态场景等复杂条件的视频如何保持稳像的鲁棒性仍然是最关键的问题。

4. 图像无参考客观质量评价主要技术概述

视频图像质量评价是从视频图像信噪比、清晰度、亮度对比度、色彩保持度等方面比较各种视频图像处理算法效果优劣以及优化算法参数的重要技术,其研究始于20世纪60年代[39] 。按照是否需要人类视觉参与视频图像质量评价可分为主观质量评价方法[40] 和客观质量评价方法[41] ,依据是否有真实参考视频图像,质量评价方法又可分为[41] 全参考、半参考和无参考三类。其中客观无参考图像质量评价方法对于衡量图像质量、评价图像处理算法、设计自动参数调整的自适应图像处理算法都发挥关键作用,因此已经成为图像质量评价的研究热点[42] -[44] 。

文献[45] 将现有的无参考图像质量评价主要方法归纳为3类:1) 从图像结构信息出发,只考虑图像边缘梯度、纹理细节及对比度等信息[46] [47] 。2) 从自然景物颜色出发,考虑视觉效果良好的自然景物统计信息,计算统计差异值得到评价指标[48] [49] 。3) 从HVS特性出发,模拟并量化HVS模型,从而得到评价结果[50] 。

对于视频图像去雾质量的评价,常用新可见边集合数目比和去雾前后平均梯度比两个指标[23] 。2011年,禹晶等人在文献[3] 中归纳总结了可用于去雾质量评价的颜色和对比度方面的有关评测准则,进而又提出了一个综合评价去雾质量的指标[51] 。该综合指标由有效细节强度、色调还原程度、结构信息3个分指标构成:有效细节强度通过Canny算子和亮通道检测图像得到;色调还原程度通过图像直方图相似性检测得到;结构失真程度通过图像结构相似性检测得到,从而可以对去雾算法进行综合客观评价。

对于视频稳像质量的客观评价研究的还不多。文献[52] 认为抖动的视频中可以将画面的运动分解为低频的意向运动和高频的需要去除的抖动。用稳像后剩余的高频抖动成分与原始视频中高频抖动成分相除,得到抖动经过稳像的衰减程度,也即稳像质量。稳像误差的低频部分是意向运动,定义为散度。而且对于稳像的模糊问题提供了用点扩散函数(PSF)进行评价的方法。文献[53] 对近几年提出的基于保真度的评价方法、基于结构相似度的评价方法、基于标准差的评价方法、基于随机性检验的稳像评价方法及基于人眼视觉特性的评价方法等相关研究进行了综述。另外,文献[38] 中还提出了剪切率、全局扭曲和稳定度3个客观指标对其给出的稳像方法进行评价。其中,剪切率由原始视频和稳像视频每帧之间的单应性矩阵中尺度参数的均值计算出;全局扭曲由变形变换矩阵的各向异性缩放比例计算得到;稳定度是对估计出的2D运动的频率进行分析,然后依据稳像后运动中所包含的低频成分比例越大,视频稳像效果越好这个假设得到的。

视频图像质量客观评价的目标始终是追求与人的主观评价结果相一致,建立多指标的图像质量综合评价模型是一个趋势。

5. 海上视频增强技术的发展方向

海上视频增强是一项非常具有挑战性的研究,虽然相关技术已在不同程度上获得了一些进展,然而任何一种单一的方法和应用与令人满意的实用效果还有较大差距。基于本文对海上视频增强关键技术的评述,我们认为未来的发展方向主要包括:

1) 建立多指标的视频图像质量综合评价模型,提高客观无参考质量评价结果与主观评价结果的一致性,实现海上视频降质原因的自感知;

2) 通过性能更优良的自适应多尺度分解方法提高视频增强算法的自适应性、鲁棒性及实时性;

3) 根据视频降质原因和不同算法增强结果的自动评价,使用多种增强技术自适应协调配合工作,自动寻优达到比较理想的增强效果。

资助信息

国家自然科学基金项目(61250006, 61273262, 61002052)

参考文献 (References)

  1. [1]   Odell, A.P. and Weinman, J.A. (1975) The effect of atmospheric haze on images of the earth’s surface. Journal of Geophysical Research, 80, 5035-5040.

  2. [2]   禹晶, 徐东彬, 廖庆敏 (2011) 图像去雾技术研究进展. 中国图象图形学报, 9, 1561-1576.

  3. [3]   郭璠, 蔡自兴, 谢斌, 唐琎 (2010) 图像去雾技术研究综述与展望. 计算机应用, 9, 2417-2421.

  4. [4]   Narasimhan, S.G. and Nayar, S.K. (2003) Contrast restoration of weather degraded images. IEEE Transactions on Pattern Analysis and Machine Intelligence, 25, 713-724.

  5. [5]   Shwartz, S., Namer, E. and Schechner, Y.Y. (2006) Blind haze separation. IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Vol. 2, 1984-1991.

  6. [6]   陈功, 王唐, 周荷琴 (2008) 基于物理模型的雾天图像复原新方法. 中国图象图形学报, 5, 888-893.

  7. [7]   Tan, R.T. (2008) Visibility in bad weather from a single image. IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2008, 23-28 June 2008, 1-8.

  8. [8]   Fattal, R. (2008) Single image dehazing. ACM Transactions on Graphics (TOG), 27, 72.

  9. [9]   Tarel, J.P. and Hautiere, N. (2009). Fast visibility restoration from a single color or gray level image. IEEE 12th International Conference on Computer Vision, 2201-2208.

  10. [10]   He, K., Sun, J. and Tang, X. (2011) Single image haze removal using dark channel prior. IEEE Transactions on Pattern Analysis and Machine Intelligence, 33, 2341-2353.

  11. [11]   禹晶, 李大鹏, 廖庆敏 (2011) 基于物理模型的快速单幅图像去雾方法. 自动化学报, 2, 143-149.

  12. [12]   Rahman, Z.U., Woodell, G.A. and Jobson, D.J. (1997) A comparison of the multiscaleretinex with other image enhancement techniques. Is and T Annual Conference, The Society for Imaging Science and Technology, 426-431.

  13. [13]   Joshi, K.R. and Kamathe, R.S. (2008) Quantification of retinex in enhancement of weather degraded images. International Conference on Audio, Language and Image Processing, ICALIP 2008, Shanghai, 7-9 July 2008, 1229-1233.

  14. [14]   Vonikakis, V., Andreadis, I. and Gasteratos, A. (2008) Fast centre-surround contrast modification. IET Image Processing, 2, 19-34.

  15. [15]   王守觉, 郭东辉, 丁兴号, 廖英豪 (2008) 一种新的仿生彩色图像增强方法. 电子学报, 10, 1970-1973.

  16. [16]   Lam, E.Y. (2005) Combining gray world and retinex theory for automatic white balance in digital photography. Proceedings of the 9th International Symposium on Consumer Electronics, ISCE 2005, Macau, 14-16 June 2005, 134-139.

  17. [17]   Gijsenij, A., Gevers, T. and van de Weijer, J. (2010) Generalized gamut mapping using image derivative structures for color constancy. International Journal of Computer Vision, 86, 127-139.

  18. [18]   Land, E.H. (1964) The retinex. American Scientist, 52, 247-264.

  19. [19]   Rahman, Z.U., Jobson, D.J. and Woodell, G.A. (2002) Retinex processing for automatic image enhancement. In: Electronic Imaging 2002, International Society for Optics and Photonics, 390-401.

  20. [20]   Provenzi, E., Gatta, C., Fierro, M. and Rizzi, A. (2008) A spatially variant white-patch and gray-world method for color image enhancement driven by local contrast. IEEE Transactions on Pattern Analysis and Machine Intelligence, 30, 1757-1770.

  21. [21]   McCann, J.J. (2004) Retinex at 40. Journal of Electronic Imaging, 13, 6-145.

  22. [22]   John, J. and Wilscy, M. (2008) Enhancement of weather degraded video sequences using wavelet fusion. 7th IEEE International Conference on Cybernetic Intelligent Systems, CIS 2008, London, 9-10 September 2008, 1-6.

  23. [23]   郭璠, 蔡自兴, 谢斌 (2011) 基于雾气理论的视频去雾算法. 电子学报, 9, 2019-2025.

  24. [24]   Yoon, I., Kim, S., Kim, D., Hayes, M.H. and Paik, J. (2012) Adaptive defogging with color correction in the HSV color space for consumer surveillance system. IEEE Transactions on Consumer Electronics, 58, 111-116.

  25. [25]   甘佳佳, 肖春霞 (2013) 结合精确大气散射图计算的图像快速去雾. 中国图象图形学报, 5, 583-590.

  26. [26]   Lewis, G.R. (1990) Three-axis image stabilization with a two-axis mirror. 33rd Annual Technical Symposium, San Diego, 7 August 1990, 309-313.

  27. [27]   Balakirsky, S.B. and Chellappa, R. (1996) Performance characterization of image stabilization algorithms. International Conference on Image Processing, 1, 413-416.

  28. [28]   王志民, 徐晓刚 (2010) 电子稳像技术综述. 中国图象图形学报, 3, 470-480.

  29. [29]   陈启立, 宋利, 余松煜 (2011) 视频稳像技术综述. 电视技术, 7, 15-17.

  30. [30]   Smith, B.M., Zhang, L., Jin, H. and Agarwala, A. (2009) Light field video stabilization. 2009 IEEE 12th International Conference on Computer Vision, Kyoto, 29 September-2 October 2009, 341-348.

  31. [31]   Lee, K.Y., Chuang, Y.Y., Chen, B.Y. and Ouhyoung, M. (2009) Video stabilization using robust feature trajectories. 2009 IEEE 12th International Conference on Computer Vision, Kyoto, 29 September-2 October 2009, 1397-1404.

  32. [32]   Morimoto, C. and Chellappa, R. (1998) Evaluation of image stabilization algorithms. Proceedings of the 1998 IEEE International Conference on Acoustics, Speech and Signal Processing, 5, 2789-2792.

  33. [33]   Zhang, G., Hua, W., Qin, X., Shao, Y. and Bao, H. (2009) Video stabilization based on a 3D perspective camera model. The Visual Computer, 25, 997-1008.

  34. [34]   Liu, F., Gleicher, M., Wang, J., Jin, H. and Agarwala, A. (2011) Subspace video stabilization. ACM Transactions on Graphics (TOG), 30, Article No. 4.

  35. [35]   Goldstein, A. and Fattal, R. (2012) Video stabilization using epipolar geometry. ACM Transactions on Graphics (TOG), 31, Article No. 126.

  36. [36]   Liu, F., Gleicher, M., Jin, H. and Agarwala, A. (2009) Content-preserving warps for 3D video stabilization. ACM Transactions on Graphics (TOG), 28, 44.

  37. [37]   Zhou, Z., Jin, H. and Ma, Y. (2013) Plane-based content preserving warps for video stabilization. 2013 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Portland, 23-28 June 2013, 2299-2306.

  38. [38]   Liu, S., Yuan, L., Tan, P. and Sun, J. (2013) Bundled camera paths for video stabilization. ACM Transactions on Graphics (TOG), 32, 78.

  39. [39]   Lewis, N.W. and Allnatt, J.A. (1965) Subjective quality of television pictures with multiple impairments. Electron Letters, 1, 187-188.

  40. [40]   Richardson, I.E.G. and Kannangara, C.S. (2004) Fast subjective video quality measurement with user feedback. Electronics Letters, 40, 799-801.

  41. [41]   Wang, Z., Sheikh, H.R. and Bovik, A.C. (2003) Objective video quality assessment. In: The Handbook of Video Databases: Design and Applications, 1041-1078.

  42. [42]   Ferzli, R. and Karam, L.J. (2009) A no-reference objective image sharpness metric based on the notion of just noticeable blur (JNB). IEEE Transactions on Image Processing, 18, 717-728.

  43. [43]   Mittal, A., Moorthy, A.K. and Bovik, A.C. (2012) No-reference image quality assessment in the spatial domain. IEEE Transactions on Image Processing, 21, 4695-4708.

  44. [44]   Saad, M.A., Bovik, A.C. and Charrier, C. (2012) Blind image quality assessment: A natural scene statistics approach in the DCT domain. IEEE Transactions on Image Processing, 21, 3339-3352.

  45. [45]   南栋, 毕笃彦, 查宇飞, 张泽, 李权合 (2013) 基于参数估计的无参考型图像质量评价算法. 电子与信息学报, 9, 2066-2072.

  46. [46]   Ferzli, R. and Karam, L.J. (2007) A no reference objective shaprness metric using riemannian tensor. Simulation, 1, 1.

  47. [47]   Hautiere, N., Tarel, J.P., Aubert, D. and Dumont, E. (2008) Blind contrast enhancement assessment by gradient ratioing at visible edges. Image Analysis & Stereology Journal, 27, 87-95.

  48. [48]   Cohen, E. and Yitzhaky, Y. (2010) No-reference assessment of blur and noise impacts on image quality. Signal, Image and Video Processing, 4, 289-302.

  49. [49]   禹晶, 李大鹏, 廖庆敏 (2011) 基于颜色恒常性的低照度图像视见度增强. 自动化学报, 8, 923-931.

  50. [50]   Liu, H. and Heynderickx, I. (2009) A perceptually relevant no-reference blockiness metric based on local image characteristics. EURASIP Journal on Advances in Signal Processing, 2009, 2.

  51. [51]   李大鹏, 禹晶, 肖创柏 (2011) 图像去雾的无参考客观质量评测方法. 中国图象图形学报, 9, 1753-1757.

  52. [52]   Niskanen, M., Silvén, O. and Tico, M. (2006) Video stabilization performance assessment. 2006 IEEE International Conference on Multimedia and Expo, Toronto, 9-12 July 2006, 405-408.

  53. [53]   黄晨, 王建军, 高昕, 丁晟 (2013) 电子稳像中稳像质量评价方法研究. 激光与红外, 5, 477-481.

期刊菜单