留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于最大熵准则的多视角SAR目标分类方法

李宁 王军敏 司文杰 耿则勋

李宁, 王军敏, 司文杰, 耿则勋. 基于最大熵准则的多视角SAR目标分类方法[J]. 红外与激光工程, 2021, 50(12): 20210233. doi: 10.3788/IRLA20210233
引用本文: 李宁, 王军敏, 司文杰, 耿则勋. 基于最大熵准则的多视角SAR目标分类方法[J]. 红外与激光工程, 2021, 50(12): 20210233. doi: 10.3788/IRLA20210233
Li Ning, Wang Junmin, Si Wenjie, Geng Zexun. Multi-view SAR target classification method based on principle of maximum entropy[J]. Infrared and Laser Engineering, 2021, 50(12): 20210233. doi: 10.3788/IRLA20210233
Citation: Li Ning, Wang Junmin, Si Wenjie, Geng Zexun. Multi-view SAR target classification method based on principle of maximum entropy[J]. Infrared and Laser Engineering, 2021, 50(12): 20210233. doi: 10.3788/IRLA20210233

基于最大熵准则的多视角SAR目标分类方法

doi: 10.3788/IRLA20210233
基金项目: 国家自然科学基金(61803145);河南省科技厅科技攻关项目(202102210331);平顶山学院青年基金(PXYQNJJ2017004)
详细信息
    作者简介:

    李宁,女,讲师,硕士,主要从事图像识别、目标检测等方面的研究

  • 中图分类号: TN957

Multi-view SAR target classification method based on principle of maximum entropy

  • 摘要: 针对合成孔径雷达(Synthetic aperture radar,SAR)目标分类问题,提出基于最大熵准则的多视角方法。采用经典的图像相似度测度构建不同视角SAR图像之间的相关性矩阵,在此基础上分别计算不同视角组合条件下的非线性相关信息熵值。非线性相关信息熵值可分析多个变量之间的统计特性,熵值的大小即可反映不同变量之间的内在关联。根据最大熵的原则选择最优的视角子集,其中SAR图像具有最大的内在相关性。分类过程以联合稀疏表示为基础,对具有最大熵值的多个视角进行联合表示。联合稀疏表示模型同时处理若干稀疏表示问题,在它们具有关联的条件下具有提升重构精度的优势。根据不同视角求解得到的表示系数,按照类别分别计算对于选取多视角的重构误差,并根据误差最小的准则进行最终决策。文中方法可有效对多视角SAR图像样本进行相关性分析,并利用联合稀疏表示利用这种相关性,能够更好提高分类精度。采用MSTAR数据集对方法进行分析测试,通过与几类其他方法在多种测试条件下进行对比,结果显示了最大熵准则在多视角选取中的有效性和文中方法对SAR目标分类性能的优越性。
  • 图  1  基于最大熵准则的多视角SAR目标分类流程

    Figure  1.  Flowchart of multi-view SAR target classification based on maximum entropy

    图  2  待分类目标示意图

    Figure  2.  Illustration of the targets to be classified

    图  3  标准操作条件下的分类结果

    Figure  3.  Classification results under SOC

    图  4  俯仰角差异下的平均分类率对比

    Figure  4.  Comparison of average classification rates under depression angle variance

    图  5  噪声干扰下的平均分类率

    Figure  5.  Average classification rates under noise corruption

    表  1  标准操作条件下的样本设置

    Table  1.   Setup of samples under SOC

    TypeTraining setTest set
    BMP2231193
    BTR70231194
    T72230194
    T62297271
    BRDM2296272
    BTR60254193
    ZSU23/4297272
    D7297272
    ZIL131297272
    2S1297272
    下载: 导出CSV

    表  2  标准操作条件下平均分类率对比

    Table  2.   Comparison of average classificationrates under SOC

    MethodAverage classification accuracy
    Proposed99.36%
    Multi-view 198.74%
    Multi-view 299.13%
    Multi-view 399.21%
    CNN99.08%
    下载: 导出CSV

    表  3  型号差异的样本设置

    Table  3.   Setup of samples for configuration variance

    BMP2BDRM2BTR70T72
    Training set231 (Sn_9563)296231230 (Sn_132)
    Test set424 (Sn_812)
    426 (Sn_9566) 0 0 571 (Sn_A04)
    427 (Sn_C21) 571 (Sn_A05)
    571 (Sn_A07)
    565 (Sn_A10)
    下载: 导出CSV

    表  4  型号差异条件下平均分类率对比

    Table  4.   Comparison of average classification rates under configuration variance

    MethodAverage classification accuracy
    Proposed98.86%
    Multi-view 196.78%
    Multi-view 297.92%
    Multi-view 398.17%
    CNN96.02%
    下载: 导出CSV

    表  5  俯仰角差异的样本设置

    Table  5.   Setup of samples under depression angle variance

    Depression angle/(°)2S1BDRM2ZSU23/4
    Training set17297296297
    Test set30286285286
    45301301301
    下载: 导出CSV
  • [1] El-darymli K, Gill E W, Mcguire P, et al. Automatic target recognition in synthetic aperture radar imagery: a state-of-the-art review [J]. IEEE Access, 2016, 4: 6014-6058. doi:  10.1109/ACCESS.2016.2611492
    [2] Anagnostopoulos G C. SVM-based target recognition from synthetic aperture radar images using target region outline descriptors [J]. Nonlinear Analysis, 2009, 71(2): 2934-2939.
    [3] Xie Q, Zhang H. Multi-level SAR image enhancement based on regularization with application to target recognition [J]. Journal of Electronic Measurement and Instrumentation, 2018, 32(9): 157-162. (in Chinese)
    [4] Cui Z Y, Cao Z J, Yang J Y, et al. Target recognition in synthetic aperture radar via non-negative matrix factorization [J]. IET Radar, Sonar and Navigation, 2015, 9(9): 1376-1385. doi:  10.1049/iet-rsn.2014.0407
    [5] Dong G G, Kuang G Y, Wang N, et al. SAR target recognition via joint sparse representation of monogenic signal [J]. IEEE Journal of Selected Topics Applied Earth Observation and Remote Sensing, 2015, 8(7): 3316-3328. doi:  10.1109/JSTARS.2015.2436694
    [6] Ding B Y, Wen G J, Yu L S, et al. Matching of attributed scattering center and its application to synthetic aperture radar automatic target recognition [J]. Journal of Radar, 2017, 6(2): 157-166. (in Chinese)
    [7] Liu H C, Li S T. Decision fusion of sparse representation and support vector machine for SAR image target recognition [J]. Neurocomputing, 2013, 113: 97-104. doi:  10.1016/j.neucom.2013.01.033
    [8] Thiagaraianm J, Ramamurthy K, Knee P P, et al. Sparse representations for automatic target classification in SAR images[C]//4 th Communications, Control and Signal Processing, 2010: 1–4.
    [9] Zhang K, Wang Z, Hua L, et al. Application research of view high speed detection algorithm of small field based on sparse features [J]. Chinese Journal of Scientific Instrument, 2018, 39(12): 179-189. (in Chinese)
    [10] Chen S Z, Wang H P, Xu F, et al. Target classification using the deep convolutional networks for SAR images [J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(8): 4806-4817. doi:  10.1109/TGRS.2016.2551720
    [11] Liu S K, Yang J. Target recognition in synthetic aperture radar images via joint multifeature decision fusion [J]. Journal of Applied Remote Sensing, 2018, 12(1): 016012.
    [12] Ding B Y, Wen G J, Huang X H, et al. Target recognition in SAR images by exploiting the azimuth sensitivity [J]. Remote Sensing Letters, 2017, 8(9): 121-130.
    [13] Huan R H, Pan Y. Target recognition of multi-aspect SAR images with fusion strategies [J]. Progress In Electromagnetics Research Symposium, 2013, 134: 267-288.
    [14] Zhang H C, Nasrabadi N M, Zhang Y, et al. Multi-view automatic target recognition using joint sparse representation [J]. IEEE Transactions on Aerospace and Electronic Systtems, 2012, 48(3): 2481-2497.
    [15] Cao Z J, Xu L, Feng J L. Automatic target recognition with joint sparse representation of heterogeneous multi-view SAR images over a locally adaptive dictionary [J]. Signal Processing, 2016, 126: 127-134.
    [16] Ding B Y, Wen G J. Exploiting multi-view SAR images for robust target recognition [J]. Remote Sensing, 2017, 9(11): 1150. doi:  10.3390/rs9111150
    [17] Cai D R, Song Y Z. Joint decision of multi-view SAR images with discrimination analysis with application to SAR ATR [J]. Journal of CAEIT, 2018, 14(1): 37-42. (in Chinese)
    [18] Miao X Y, Shan Y P. SAR target recognition via sparse representation of multi view SAR images with correlation analysis [J]. Journal of Electromagnetic Waves and Applications, 2019, 33(7): 897-910. doi:  10.1080/09205071.2019.1575290
    [19] Cai D R, Zhang T. SAR target recognition based on joint use of multi-resolution representations [J]. Journal of Electronic Measurement and Instrumentation, 2018, 32(12): 71-77. (in Chinese)
    [20] Li A G, Wang B N. The concept of a new nonlinear correlation information entropy and its properties and applications [J]. Information and Control, 2011, 40(3): 401-408. (in Chinese)
    [21] Wang H D, Yao X. Objective reduction based on nonlinear correlation information entropy [J]. Methodologies and Application, 2016, 20: 2393-2407.
  • [1] 赵璐, 熊森.  多视角红外图像目标识别方法 . 红外与激光工程, 2021, 50(11): 20210206-1-20210206-6. doi: 10.3788/IRLA20210206
    [2] 陈丛.  基于狼群算法的SAR图像属性散射中心参数估计 . 红外与激光工程, 2021, 50(4): 20200409-1-20200409-7. doi: 10.3788/IRLA20200409
    [3] 尚珊珊, 余子开, 范涛, 金利民.  高斯过程模型在SAR图像目标识别中的应用 . 红外与激光工程, 2021, 50(7): 20200337-1-20200337-7. doi: 10.3788/IRLA20200337
    [4] 马丹丹.  图像分块匹配的SAR目标识别方法 . 红外与激光工程, 2021, 50(10): 20210120-1-20210120-8. doi: 10.3788/IRLA20210120
    [5] 史国军.  深度特征联合表征的红外图像目标识别方法 . 红外与激光工程, 2021, 50(3): 20200399-1-20200399-6. doi: 10.3788/IRLA20200399
    [6] 李亚娟.  结合多决策准则稀疏表示的SAR图像目标识别方法 . 红外与激光工程, 2021, 50(8): 20210138-1-20210138-8. doi: 10.3788/IRLA20210138
    [7] 伍友龙.  多元经验模态分解及在SAR图像目标识别中的应用 . 红外与激光工程, 2021, 50(4): 20200236-1-20200236-7. doi: 10.3788/IRLA20200236
    [8] 刘志超, 屈百达.  复数二维经验模态分解在SAR目标识别中的应用 . 红外与激光工程, 2021, 50(5): 20200309-1-20200309-8. doi: 10.3788/IRLA20200309
    [9] 杨雅志, 李骏.  单演信号在红外图像目标分类中的应用研究 . 红外与激光工程, 2021, 50(12): 20210165-1-20210165-7. doi: 10.3788/IRLA20210165
    [10] 吴剑波, 陆正武, 关玉蓉, 王庆东, 姜国松.  二维压缩感知多投影矩阵特征融合的SAR目标识别方法 . 红外与激光工程, 2021, 50(6): 20200531-1-20200531-7. doi: 10.3788/IRLA20200531
    [11] 田鹤, 毛宏霞, 刘铮, 曾铮.  机载逆合成孔径激光雷达微动目标稀疏成像 . 红外与激光工程, 2020, 49(S2): 20200190-20200190. doi: 10.3788/IRLA20200190
    [12] 张珂殊, 吴一戎.  距离向扫描合成孔径激光雷达目标三维重建 . 红外与激光工程, 2019, 48(3): 330001-0330001(7). doi: 10.3788/IRLA201948.0330001
    [13] 经文, 崔振茂, 成彬彬, 江舸, 张健.  基于相关视角多视校正的太赫兹阵列雷达散斑抑制方法 . 红外与激光工程, 2019, 48(1): 125005-0125005(9). doi: 10.3788/IRLA201948.0125005
    [14] 洪汉玉, 范艳, 邓哲煜, 时愈.  动目标多视角观测图像的三维去模糊方法 . 红外与激光工程, 2016, 45(2): 228001-0228001(8). doi: 10.3788/IRLA201645.0228001
    [15] 李飞, 张鸿翼, 徐卫明, 舒嵘.  天基合成孔径激光雷达非合作目标成像系统设计与实验 . 红外与激光工程, 2016, 45(10): 1030001-1030001(8). doi: 10.3788/IRLA201645.1030001
    [16] 阮航, 吴彦鸿, 叶伟.  匀速运动目标逆合成孔径激光雷达成像算法 . 红外与激光工程, 2014, 43(4): 1124-1129.
    [17] 刘小阳, 孙广通, 宋萍, 刘军, 李峰.  利用MODIS水汽数据进行ASAR干涉测量大气改正研究 . 红外与激光工程, 2014, 43(12): 4111-4116.
    [18] 阮航, 吴彦鸿, 张书仙.  基于天基逆合成孔径激光雷达的静止轨道目标成像 . 红外与激光工程, 2013, 42(6): 1611-1616.
    [19] 朱丰, 张群, 冯有前, 罗迎, 李开明, 梁必帅.  逆合成孔径激光雷达鸟类目标压缩感知识别方法 . 红外与激光工程, 2013, 42(1): 256-261.
    [20] 杨亚威, 李俊山, 杨威, 赵方舟.  利用稀疏化生物视觉特征的多类多视角目标检测方法 . 红外与激光工程, 2012, 41(1): 267-272.
  • 加载中
图(5) / 表(5)
计量
  • 文章访问数:  51
  • HTML全文浏览量:  23
  • PDF下载量:  9
  • 被引次数: 0
出版历程
  • 收稿日期:  2021-05-25
  • 修回日期:  2021-06-30
  • 刊出日期:  2021-12-25

基于最大熵准则的多视角SAR目标分类方法

doi: 10.3788/IRLA20210233
    作者简介:

    李宁,女,讲师,硕士,主要从事图像识别、目标检测等方面的研究

基金项目:  国家自然科学基金(61803145);河南省科技厅科技攻关项目(202102210331);平顶山学院青年基金(PXYQNJJ2017004)
  • 中图分类号: TN957

摘要: 针对合成孔径雷达(Synthetic aperture radar,SAR)目标分类问题,提出基于最大熵准则的多视角方法。采用经典的图像相似度测度构建不同视角SAR图像之间的相关性矩阵,在此基础上分别计算不同视角组合条件下的非线性相关信息熵值。非线性相关信息熵值可分析多个变量之间的统计特性,熵值的大小即可反映不同变量之间的内在关联。根据最大熵的原则选择最优的视角子集,其中SAR图像具有最大的内在相关性。分类过程以联合稀疏表示为基础,对具有最大熵值的多个视角进行联合表示。联合稀疏表示模型同时处理若干稀疏表示问题,在它们具有关联的条件下具有提升重构精度的优势。根据不同视角求解得到的表示系数,按照类别分别计算对于选取多视角的重构误差,并根据误差最小的准则进行最终决策。文中方法可有效对多视角SAR图像样本进行相关性分析,并利用联合稀疏表示利用这种相关性,能够更好提高分类精度。采用MSTAR数据集对方法进行分析测试,通过与几类其他方法在多种测试条件下进行对比,结果显示了最大熵准则在多视角选取中的有效性和文中方法对SAR目标分类性能的优越性。

English Abstract

    • 合成孔径雷达(Synthetic aperture radar,SAR)目标分类技术自20世纪90年代开展研究以来,涌现了大量的研究成果[1]。早期,SAR目标分类方法多以单视角图像为输入,通过适当的特征提取和分类器设计判定目标类别[2-11]。随着SAR数据获取能力的不断增强,基于多视角的SAR目标分类方法也得以广泛研究。考虑到SAR图像的视角敏感性[12],多视角SAR图像的运用能够综合来自不同方位或俯仰角下的SAR图像的鉴别力从而提高分类决策的稳健性。相比传统基于单一视角的SAR目标分类方法,多视角方法通过信息互补能够更为有效地提升整体分类性能。参考文献[13]基于并行决策融合的思路进行多方位角SAR图像决策融合。首先采用支持向量机分别进行单个视角的决策,最后基于投票机制融合不同视角的决策结果。参考文献[14-15]将联合稀疏表示应用于多视角SAR图像的目标分类中,通过联合稀疏表示模型考察不同视角之间的内在关联性从而提高分类精度。参考文献[16-17]认为参与决策融合的多视角中可能存在冗余信息,因此在联合稀疏表示之前预先进行了筛选,通过稀疏表示分类定义判决变量选取若干视角代入后续联合表征。参考文献[18]则进一步对多视角进行分集考察,将内在相关性较强的部分视角归为一个集合。最后,通过各个视角集合的分别稀疏表示和决策融合进行目标分类。

      如参考文献[16-18]所论述,实际过程初次选取的多视角可能存在冗余甚至不利于正确分类的信息,有必要进行适当的视角筛选。为此,文中提出基于最大熵准则的多视角SAR图像筛选方法进而应用于目标分类。首先,基于图像相关定义两幅不同视角SAR图像之间的相关度。在此基础上,构造初次选取的多视角之间的相关系数矩阵,反映不同视角之间的内在相关性。分别选取原始多视角SAR图像的子集并计算它们的非线性相关信息熵[19-21]。该熵值代表了选取视角的相关性。因此,对多视角SAR图像进行内在相关性分析,获取具有最大熵的视角集合可有效完成多视角筛选。最后,以联合稀疏表示为基础对多个视角进行联合表征,并计算在不同类别上的总体重构误差,按照最小误差的原则判定测试多视角的目标类别。实验在MSTAR数据集上进行,经多种条件下的分析及比较,结果能够反映方法的有效性。

    • SAR图像具有较强的视角敏感性[12]。随着两幅SAR图像的成像方位角差距逐渐增大,两者的相似度不断降低。然而,在当前的多视角SAR目标分类方法中,一个重要的特性就是运用不同视角之间的内在关联。因此,有必要科学定义不同视角SAR图像之间的相关性。文中采用经典的图像相关作为评价不同视角相关性的基本准则,如公式(1)所示:

      $$c = \max \left( {\frac{{\displaystyle\sum\nolimits_k {\displaystyle\sum\nolimits_l {\left[ {{I_1}(k,l) - {m_1}} \right]\left[ {{I_2}(k - \Delta k,l - \Delta l) - {m_2}} \right]} } }}{{{{\left[ {\displaystyle\sum\nolimits_k {\displaystyle\sum\nolimits_l {{{\left[ {{I_1}(k,l) - {m_1}} \right]}^2}{{\left[ {{I_2}(k - \Delta k,l - \Delta l) - {m_2}} \right]}^2}} } } \right]}^{1/2}}}}} \right)$$ (1)

      式中:${I_1}$${I_2}$代表来自不同方位角的两幅SAR图像;${m_1}$${m_2}$分别为它们的像素灰度均值;$\Delta k$$\Delta l$为偏置距离,调节它们可获得不同匹配位置上的相似度。公式(1)定义的图像相似度即是寻找不同偏移条件下的最大相似度值。

      基于公式(1)定义的相似度准则可分别计算多视角SAR图像之间的两两相关性,综合分析可获得多视角之间的内在相关性。为有效利用原始多视角中的稳定内在相关性,提升表征精度以及后续的分类精度,有必要对其中的部分视角进行选取。选取的视角具有较强的、稳定的内在关联,可以更为有效地支撑后续的分类。

    • 文中设计基于最大熵值原则对多视角SAR图像进行可靠筛选[21],首先构造不同视角之间的相关系数矩阵如下:

      $$R = E + \tilde R = \left[ \begin{gathered} 1{\rm{ }}{r_{12}}{\rm{ }} \cdots {\rm{ }}{r_{1N}} \\ {r_{21}}{\rm{ 1 }} \cdots {\rm{ }}{r_{2N}} \\ {\rm{ }} \vdots {\rm{ }} \vdots {\rm{ }} \vdots \\ {r_{N1}}{\rm{ }}{r_{N2}}{\rm{ }} \cdots {\rm{ 1}} \\ \end{gathered} \right]$$ (2)

      式中:$E$表示单位矩阵;$\tilde R$表示$N$个视角SAR图像之间的互相关矩阵,其中${\rm{ }}{r_{ij}}$表示第i和第j个视角之间的相似度。计算矩阵$R$的特征值${\lambda _t}$,在此基础上定义非线性相关信息熵${H_R}$如下:

      $${H_R} = 1 + \displaystyle\sum\limits_{t = 1}^T {\dfrac{{{\lambda _t}}}{T}} {\log _T}\dfrac{{{\lambda _t}}}{T}$$ (3)

      根据公式(3),当各个视角之间完全独立,即相似度为0,此时相关系数矩阵为单位阵,最终$R$的所有的特征值均为1。此时,熵值最小,为0。当不同视角之间存在一定相关性,即存在非零的相似度,此时$R$的特征值不再相等。当不同视角完全匹配(理想状态),熵值为最大值1。因此,根据熵值的大小可以分析多视角SAR图像之间的内在关联。

      文中采用公式(3)定义的非线性相关信息熵进行最佳视角组合的筛选。对于候选的$M$个不同视角SAR图像,按预定规则对它们进行组合,获得$P$个不同的视角子集。然后,对于不同组合的视角子集,采用公式(3)分别计算非线性相关信息熵,然后按照最大熵的原则筛选得到最佳的多个视角。选取得到的多视角具有较强的内在相关性,可充分用于后续的多视角分类算法。

    • 根据最大熵值选取得到的多视角SAR图像,文中采用联合稀疏表示对它们进行表征和分析[6, 11-14]。对于待分类的目标$y$,假设选取获得$K$个不同视角,记为:$\left[ {{y^{(1)}}{\rm{ }}{y^{(2)}}{\rm{ }} \cdots {\rm{ }}{y^{(K)}}} \right]$,联合表示的基本思想是最小化各个视角的整体误差:

      $$\mathop {\min }\limits_\beta \left\{ {g(\beta ) = \sum\limits_{k = 1}^K {\left\| {{y^{(k)}} - D{\alpha ^{(k)}}} \right\|} } \right\}$$ (4)

      式中:$D$为全局字典,包含不同训练类别的样本;${\alpha ^{(k)}}$对应第$k$个视角的表示系数;$\;\beta = \left[ {{\alpha ^{(1)}}{\rm{ }}{\alpha ^{(2)}}{\rm{ }} \cdots {\rm{ }}{\alpha ^{(K)}}} \right]$记为系数矩阵。

      进一步,联合稀疏表示模型引入${\ell _{\rm{1}}}/{\ell _2}$范数分析不同视角之间的关联性,可表示为:

      $$\mathop {\min }\limits_\beta \left( {g(\beta ) + \lambda {{\left\| \beta \right\|}_{2,1}}} \right)$$ (5)

      通过${\ell _{\rm{1}}}/{\ell _2}$范数对系数矩阵的约束,不同视角对应的系数矢量倾向于相近的分布特性,反映了它们的相关性。对于公式(5)的优化问题,可利用现有联合稀疏表示模型相关算法进行求解。

      在求解获得不同视角对应的结果的基础上,分类别求解重构误差,如公式(6)所示,最终根据最小误差完成类别决策。

      $${\rm{identity}}(y){\rm{ = }}\mathop {\min }\limits_i \sum\limits_{k = 1}^K {\left\| {{y^{(k)}} - {D_i}\alpha _i^{(k)}} \right\|} $$ (6)

      式中:${D_i}$为全局字典$D$$i$类的局部字典,即包含第$i$类的所有训练样本。

    • 按照上述步骤,分类方法的具体流程如图1所示。对于参与分类的多视角SAR图像,首先基于最大熵值的原则获得最佳的视角子集。然后,通过联合稀疏表示对它们进行表征分析,计算得到不同训练类别对于选取多视角的重构误差。最终,按照最小误差原则获得分类结果,即多视角测试样本的所属目标类别。与传统采用多视角的SAR目标分类方法相比较,文中方法的核心环节在于对原始多视角的选取上。非线性相关信息熵为多视角的筛选提供了定量的评价指标,基于其选取得到的多视角具有较强的内在关联性,有利于后续联合稀疏表示的运用。具体实施中,文中在多视角的初始组合时,要求视角数目不小于3,然后随机组合得到多个视角子集。基于最大熵原则得到最佳的视角子集,代入后续的分类。

      图  1  基于最大熵准则的多视角SAR目标分类流程

      Figure 1.  Flowchart of multi-view SAR target classification based on maximum entropy

    • 文中基于MSTAR数据集对提出方法进行测试。该数据集采集了X波段下多类地面车辆目标的SAR图像,分辨率可到0.3 m,具备区分战术目标的能力。图2所示为该公开数据集中最为常用的十类目标的光学图像,对应的SAR图像覆盖完整的方位角和部分典型俯仰角。此外,部分目标还采集了多个不同型号的SAR图像,进一步丰富了可用的实验场景。文中在该数据集的基础上设置多种场景对提出方法进行测试,全面考察其分类性能。

      图  2  待分类目标示意图

      Figure 2.  Illustration of the targets to be classified

      在进行文中方法实验的同时,同步与现有方法进行对比,分别取自参考文献[13],参考文献[14]和参考文献[16],分别简记为多视角方法1(Multi-view 1),多视角方法2(Multi-view 2)和多视角方法3(Multi-view 3)。此外,文中还选用当下最为流行的深度学习方法进行对比,即参考文献[10]中基于CNN的方法,该方法直接基于单视角SAR图像进行分类。后续实验基于MSTAR数据样本,进行测试条件设置,并在典型情况下进行比较分析。

    • 标准操作条件(Standard operating conditions,SOC)的训练和测试集设置如表1所示。其中,训练和测试样本分别取自17°和15°俯仰角,差异较小。两者包含的各类目标具有完全相同的型号,图像相关性较强,分类问题相对简单。该条件下文中方法的分类结果如图3所示。其中,横纵坐标标准目标类别,对角线为相应的正确分类率。可以看出,各类目标的分类性能均达到98%以上,表明方法在标准操作条件下的有效性。对四类对比方法进行同样测试并统计计算它们的分类性能。表2给出了所有方法在标准操作条件下对十类目标的平均分类率。文中方法以99.36%的分类率优于三类对比方法。此外可以发现有两类多视角方法的平均分类率均高于CNN方法,主要是因为多视角互补信息的引入有利于提高决策的稳健性。由于标准操作条件下训练样本可有效描述测试样本的图像特性,训练得到的CNN对于测试样本具有很好的适应性,因此其在单视角的条件下也可以取得高于99%的分类率。

      表 1  标准操作条件下的样本设置

      Table 1.  Setup of samples under SOC

      TypeTraining setTest set
      BMP2231193
      BTR70231194
      T72230194
      T62297271
      BRDM2296272
      BTR60254193
      ZSU23/4297272
      D7297272
      ZIL131297272
      2S1297272

      图  3  标准操作条件下的分类结果

      Figure 3.  Classification results under SOC

      表 2  标准操作条件下平均分类率对比

      Table 2.  Comparison of average classificationrates under SOC

      MethodAverage classification accuracy
      Proposed99.36%
      Multi-view 198.74%
      Multi-view 299.13%
      Multi-view 399.21%
      CNN99.08%
    • 设置如表3所示的训练和测试集对提出方法在型号差异条件下的分类性能进行测试。表中共含四类目标,其中BMP2和T72两类存在型号的不同,给分类问题带来一定的挑战。此外,训练集中增加了BDRM2和BTR70两类混淆目标进一步提高分类难度。在此条件下对各类方法进行测试,获得如表4所示的结果。文中方法可取得最高的正确分类率,显示其优势。基于最大非线性相关信息熵筛选得到的多视角子集能够更好地适应型号差异测试样本的分类问题。因此,通过采用这部分视角进行联合表示有利于提高算法对于不同型号样本的分类识别能力。与基于单一视角的CNN方法形变,四类多视角方法均具有更高的分类率,表明联合多视角有利于提升型号差异条件下的分类性能。

      表 3  型号差异的样本设置

      Table 3.  Setup of samples for configuration variance

      BMP2BDRM2BTR70T72
      Training set231 (Sn_9563)296231230 (Sn_132)
      Test set424 (Sn_812)
      426 (Sn_9566) 0 0 571 (Sn_A04)
      427 (Sn_C21) 571 (Sn_A05)
      571 (Sn_A07)
      565 (Sn_A10)

      表 4  型号差异条件下平均分类率对比

      Table 4.  Comparison of average classification rates under configuration variance

      MethodAverage classification accuracy
      Proposed98.86%
      Multi-view 196.78%
      Multi-view 297.92%
      Multi-view 398.17%
      CNN96.02%
    • 设置如表5所示的训练和测试样本测试方法对于存在俯仰角差异样本的分类识别能力。训练和测试样本共同包含了3类目标的3个不同俯仰角,其中17°用于训练,30°和45°用于测试分类。由于SAR图像具有较强的视角敏感性,较大俯仰角差异带来的图像变化(相对于测试样本)大大增加了分类问题的难度。图4直观显示了两个俯仰角差异情况下各类方法的平均分类率。可见,文中方法对于不同俯仰角的差异样本具有分类有效性。从原理上来说,基于最大熵原则获得的多视角SAR图像对于俯仰角差异的情况具有更强的针对性。在利用这部分视角进行联合分析时可以获得更为可靠的决策结果。同样,俯仰角差异条件下,多视角方法的分类性能优于基于单一视角的CNN方法。

      表 5  俯仰角差异的样本设置

      Table 5.  Setup of samples under depression angle variance

      Depression angle/(°)2S1BDRM2ZSU23/4
      Training set17297296297
      Test set30286285286
      45301301301

      图  4  俯仰角差异下的平均分类率对比

      Figure 4.  Comparison of average classification rates under depression angle variance

    • 噪声干扰时图像处理领域必须考虑的问题,考察SAR目标分类方法对于噪声干扰的稳健性十分必要。在表1列出的训练和测试样本的基础上,对测试样本进行噪声添加处理,生成不同噪声水平(利用信噪比(SNR)表征)的测试集。据此,可对文中方法以及对比方法在噪声影响条件下的分类性能进行测试[7]图5所示为各类方法在噪声干扰条件下的分类性能。伴随噪声干扰的加剧,即信噪比的降低,各方法均表现出性能下降。经对比,文中方法的分类率下降最为平缓,且在各个信噪比下均取得了最高的平均分类率,充分表明文中方法对噪声干扰具有更强的稳健性。通过最大熵筛选得到的多视角有效剔除了部分受到噪声严重污染的视角,保证了后续联合稀疏表示中的多视角内在关联性。因此,文中方法可以更为有效地克服噪声干扰下的SAR目标分类难题。

      图  5  噪声干扰下的平均分类率

      Figure 5.  Average classification rates under noise corruption

    • 文中基于非线性相关信息熵进行多视角SAR图像的筛选进而用于目标分类。采用图像相关度量不同视角SAR图像之间的相似性,构建多视角SAR图像的相关性矩阵。基于非线性相关信息熵获得最优的视角子集。该子集中的SAR图像具有较强的内在相关性。最后,对于选取得到的多视角SAR图像采用联合稀疏表示进行描述和分析,并通过比较不同类别的重构误差进行决策。实验以MSTAR数据集中的SAR图像样本进行条件设置,将文中方法与现有方法进行比较分析。根据结果,文中方法对于标准操作条件,型号差异、俯仰角变化以及噪声影响样本均表现出更为优越的性能,验证其有效性。

参考文献 (21)

目录

    /

    返回文章
    返回