当前位置:主页 > 科技论文 > 物理论文 >

基于多抖动法锁相的超短脉冲时域相干合成技术研究

发布时间:2021-05-16 08:01
  具有良好光束质量的高峰值功率的超短脉冲激光是基础科学和工业领域不断拓展新应用的重要工具。单链路光纤激光是产生高功率脉冲输出的一种手段,虽然具有热管理方便、光光转换效率高等特点,但是受限于非线性、模式不稳定等因素,难以在提升峰值功率的同时保持良好的光束质量。时域相干合成技术通过将多路较低功率的光束相干合束,实现高峰值功率、高光束质量的脉冲输出,成为研究的热点。本文以超短脉冲光纤激光时域相干合成为研究方向,重点研究了时域相干合成的光学系统、相位控制系统及相位控制算法。论文的主要工作如下:第一部分,说明了课题的研究背景及意义,调研了超短脉冲光纤激光时域相干合成的国内外研究进展,明确了本文的研究方向。第二部分,对光纤激光相干合成的理论进行了分析。光学方面对脉冲在光纤中的传输特性及放大器的理论基础进行了分析;相位控制方面对自动相位控制原理、组成和基本要求进行了分析。第三部分,首先概述并简要分析了主要的主动相位控制算法,在此基础上,以多抖动算法为重点,从波动光学原理出发推导出多抖动算法相位控制的数学模型。然后以两路光为例,研究了影响锁相稳定的参数,并以此推广到多路光束相干合成时的具体操作。最后,介... 

【文章来源】:北京工业大学北京市 211工程院校

【文章页数】:75 页

【学位级别】:硕士

【文章目录】:
摘要
Abstract
第1章 绪论
    1.1 课题的研究背景及意义
    1.2 脉冲激光时域相干合成的研究进展
    1.3 论文的主要研究内容及组织结构
第2章 光纤激光相干合成的理论基础
    2.1 脉冲在光纤中的传输特性
    2.2 脉冲光纤放大器的理论基础
    2.3 自动相位控制原理简介
        2.3.1 反馈控制原理
        2.3.2 反馈控制系统基本组成
        2.3.3 反馈控制系统基本要求
    2.4 本章小结
第3章 多抖动算法的数值模拟研究
    3.1 相干合成中的主动相位控制方法概述
    3.2 多抖动算法的数值模拟研究
        3.2.1 多抖动算法的基本数学原理
        3.2.2 抖动算法中重要参数的选取分析
        3.2.3 多路光束相干合成模拟仿真
    3.3 多抖动算法的自适应选参算法研究
        3.3.1 自适应选参算法的基本原理
        3.3.2 自适应选参算法的理论研究
        3.3.3 自适应选参算法的模拟仿真
    3.4 本章小结
第4章 超短脉冲时域相干合成的实验研究
    4.1 时域相干合成光学系统
        4.1.1 锁模光纤振荡器的实验研究
        4.1.2 保偏预放大级实验研究
        4.1.3 脉冲分束阶段的实验研究
        4.1.4 保偏主放大级的实验研究
        4.1.5 脉冲合束阶段的实验研究
    4.2 相位控制系统
        4.2.1 相位控制系统搭建
        4.2.2 相位控制系统重要器件选取
        4.2.3 自适应选参算法实验研究
    4.3 时域相干合成实验研究
    4.4 本章小结
结论
参考文献
攻读硕士学位期间取得的研究成果
致谢


【参考文献】:
期刊论文
[1]模拟退火算法光纤放大器相干合成[J]. 周朴,马阎星,王小林,马浩统,许晓军,刘泽金.  强激光与粒子束. 2010(05)
[2]光纤激光相干合成中的相位控制方法与实验[J]. 武敬力,刘京郊,邢忠宝,刘金生,范馨燕.  激光与红外. 2009(06)
[3]损耗和啁啾对皮秒脉冲孤子效应压缩的影响[J]. 王润轩.  激光技术. 2003(05)

博士论文
[1]光纤激光抖动法相干合成技术研究[D]. 马阎星.国防科学技术大学 2012
[2]超短脉冲光纤激光器和放大器的研究[D]. 丁广雷.中国科学院研究生院(西安光学精密机械研究所) 2007

硕士论文
[1]超短脉冲在掺杂光纤放大器中传输特性的研究[D]. 侯林利.西南交通大学 2012
[2]基于半导体光放大器的光脉冲压缩的研究[D]. 陈言樑.华中科技大学 2006



本文编号:3189308

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/wulilw/3189308.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户ed432***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com