当前位置:主页 > 科技论文 > 信息工程论文 >

复杂运动目标ISAR成像算法研究

发布时间:2023-11-11 14:27
  由于逆合成孔径雷达(ISAR)成像利用目标的多普勒信息,目标整体的运动状态,目标上各部件运动状态都会对成像的结果产生影响。本文的研究主要针对当目标的运动情况较复杂时,如何得到清晰的成像结果。从最常用的匀速转台模型出发,给出了ISAR成像最经典的距离—多普勒(RD)方法。对于机动运动目标,它每个散射点的多普勒频率随时间变化,本文介绍了针对机动运动目标成像的距离—瞬时多普勒算法,利用时频分析和分解多分量线性调频信号的方式。能得到机动目标瞬时成像。当ISAR成像的目标的运动具有较大的机动性,积累时间会比较少。这里介绍了一种非参数化谱估计方法,迭代自适应(IAA)方法,将该方法应用到了ISAR超分辨领域,使用少量的回波得到了清晰的图像。然后,将其应用到了缺失数据的ISAR成像领域,得到了回波缺失数据的清晰图像。接下来,研究了协方差稀疏迭代谱估计(SPICE),应用到ISAR超分辨成像。从而进一步提高了ISAR超分辨成像的分辨率。并给出了基于Gohberg-Semencul(G-S)分解的SPICE的快速实现方法。对于包含高速旋转部件的目标,由于微动目标的微多普勒效应会造成频带展宽。我们将微动部...

【文章页数】:99 页

【学位级别】:硕士

【文章目录】:
摘要
ABSTRACT
第1章 绪论
    1.1 课题背景及研究的目的和意义
    1.2 国内外在该方向的研究现状和分析
    1.3 本文的主要研究内容
第2章 ISAR成像的原理及瞬时成像方法
    2.1 引言
    2.2 ISAR成像的距离—多普勒算法
        2.2.1 线性调频信号与一维距离像
        2.2.2 ISAR成像的转台成像模型
    2.3 距离—瞬时多普勒成像算法
        2.3.1 距离—瞬时多普勒算法基本原理
        2.3.2 分解多分量线性调频信号
        2.3.3 距离—瞬时多普勒算法成像实验
    2.4 本章小结
第3章 基于谱估计的超分辨ISAR成像算法
    3.1 引言
    3.2 基于迭代自适应的超分辨成像方法
        3.2.1 迭代自适应谱估计方法
        3.2.2 基于迭代自适应方法的超分辨成像实验
        3.2.3 ISAR成像中的回波数据随机缺失
        3.2.4 缺失数据迭代自适应谱估计方法
        3.2.5 缺失数据的ISAR成像实验
    3.3 基于协方差稀疏迭代的超分辨成像
        3.3.1 协方差稀疏迭代谱估计方法
        3.3.2 协方差稀疏迭代谱估计的快速实现
        3.3.3 基于协方差稀疏迭代的超分辨成像实验
    3.4 本章小结
第4章 含旋转部件目标去微动ISAR成像算法
    4.1 引言
    4.2 基于短时傅里叶变换去微多普勒ISAR成像
        4.2.1 含有旋转部件目标的ISAR成像模型
        4.2.2 基于短时傅里叶变换的正弦调频信号分离方法
    4.3 基于时间递归迭代自适应的去微多普勒成像
        4.3.1 基于时间递归迭代自适应的信号分离方法
        4.3.2 仿真数据成像实验
    4.4 基于压缩感知的去微多普勒ISAR成像
        4.4.1 基于压缩感知的信号重构方法
        4.4.2 基于压缩感知重构的去微多普勒成像实验
    4.5 本章小结
第5 章旋转部件的回波分离与ISAR成像方法
    5.1 引言
    5.2 基于复数经验模态分解的回波分离方法
        5.2.1 经验模态分解EMD
        5.2.2 复数经验模态分解CEMD
        5.2.3 仿真雷达回波分离实验
    5.3 基于逆RADON变换的旋转部件ISAR成像
        5.3.1 旋转目标二维ISAR成像模型
        5.3.2 基于实数逆Radon变换的旋转目标成像方法
    5.4 旋转体回波分离与成像实验
    5.5 本章小结
结论
参考文献
攻读硕士学位期间发表的论文及其它成果
致谢



本文编号:3862723

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/xinxigongchenglunwen/3862723.html


Copyright(c)文论论文网All Rights Reserved | 网站地图

版权申明:资料由用户857f5***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱[email protected]