当前位置:主页 > 科技论文 > 电子信息论文 >

微结构硅基光子学器件性能的研究

发布时间:2020-10-28 05:51
   集成电路(IC)由于量子尺寸和功耗问题越来越无法满足现代社会对高速数据处理和信息传输的要求。人们越来越关注到光子作为信息载体时的独特优势,希望可以利用光子延续摩尔定律的发展。在这样的时代背景下,硅基光子学得到了广泛的研究。而对硅基光子系统性能的提升成为了重要的课题。除了利用基于传统理论的设计和优化方法外,将其他领域的理论向光学领域和硅基光子系统进行推广以及结合近些年发展迅速的人工智能和逆向设计等新的技术手段都将为提升硅基光子系统的性能提供新的动力。本论文主要研究了提升硅基光子系统性能的新方法,主要创新点如下。引入了时空对称理论,提出了在自发PT对称性破缺的双模波导中,损耗介质对模式耦合损耗具有额外的增强作用。通过在双模SOI波导上设计有效折射率实部和虚部的微扰分布,构建了处于厄米相、破缺的PT对称相和纯吸收相的三种器件。通过数值计算和实验有效地验证了当系统处于破缺的PT对称相时,相比于纯吸收相将具有更高的对目标输出模式能量的损耗。在该方案中,损耗介质在常规的光吸收作用以外,还引入了从厄米相到破缺的PT对称相的相变,而后者强烈地阻止从输入模式到输出模式的能量耦合,可以有效地增强模式耦合损耗。实验结果显示,模式耦合损耗增强因子可以达到17dB,且具有较高的带宽。通过时空对称理论增强硅基SOI波导内模式耦合损耗的方案,可以为吸收型光强度调制器或光开光提供一种新型的设计思路,使得对于电控损耗介质的利用更加高效,提高调制深度或消光比。引入了人工神经网络算法,提出了使用卷积神经网络分析多模波导内模式能量分布的方案。该方案不依靠以往常用的空间模式排序技术,降低了器件层面的复杂度,并将此负担转移到了数据处理层面。针对片上常见的薄SOI多模波导和SOI重多模波导,分别设计了专用的卷积神经网络和普适的二维卷积神经网络,从而利用预处理后的远场光强图像预测模式能量分布。这些训练好的卷积神经网络的性能经验证能够达到较高水准。在SOI重多模波导中,该性能也没有下降。此外,训练好的卷积神经网络经验证对噪声具有较高的鲁棒性。这种利用卷积神经网络分析多模波导中的模式能量分布的新方法对于空分复用和结构光领域具有较高的潜在应用,并且可以拓展到多模光纤体系。引入了逆向设计理念,提出了利用粒子群优化(PSO)算法设计超小尺寸高性能的硅基模式转换器的方案。该方案将模式转换器耦合区域的单侧宽度变化和总长度参数化,并给予它们合理的取值范围形成解空间。以FDTD计算出的TE00模的平均前向透射率为适合度函数,不断更新在解空间搜索的粒子的速度和位置,从而逐渐逼近全局最优解。根据上述逆向设计的理念,得到了模式转换器的全局最优参数(或接近最优)并对其尺寸、插损、背向散射、模式转换率、模式纯度和加工误差容忍度等多个性能指标进行了分析。通过和前人结果进行比较,该模式转换器表现优异。
【学位单位】:南京大学
【学位级别】:博士
【学位年份】:2019
【中图分类】:TN36
【部分图文】:

示意图,硅基,光电子,芯片


图1.2典型的硅基光电子芯片示意图丨10丨。??Figure?1.2?Schematic?diagram?of?typical?silicon?optoelectronic?chip?|10|.??图1.2是一个典型的硅基光电子芯片。图中显示了调制器、探测器、耦合器、??波导等器件,此外还需要在芯片上集成光源以形成一个完整的硅基光电子芯片。??在通讯的应用场景下,往往还需要复用和解复用器件。整个芯片的性能由这些器??件或子系统的性能共同决定,因此提升这些硅基光子器件的性能是一个十分重要??的课题。除了利用基于传统理论的设计和优化方法外,将其他领域的理论向光学??2??

槽波导,脊波导,折射率分布,方波


?第一章绪论???保形成波导底部的较宽硅层。这种复杂且对精准度要求较高的微加工工艺流程是??将脊波导推向大规模生产的巨大阻力,即使在实验室阶段,也更愿意使用方波导??以降低对微加工工艺的要求。此外,一种方便加工的槽波导也被提出并实现[17,??18]。与上述两种波导不同的是,槽波导电场最强的地方在两个硅条中间的空气??槽中。这种性质将使得暴露在硅条外的电场可以与增益材料更加高效的相互作用,??从而提高全光开关[19]、光学放大器[20]和光学探测器[21]的性能。当然,这种被??局域在几I?宽度内的强电场,也可以用于多种场景下的高灵敏度光学传感器??丨22,?23]。以上三种波导的横截面以及场分布示意图如下图所示。??

示意图,分光器,灰色,红色


(2)分光器??分光器是集成光互连领域不可或缺的组成部分,它可以将信号送到芯片的不??同部分。如图1.4所示,常见的分光器件包括Y结[26]、定向耦合器[27]、绝热??3dBf禺合器[28]和基于多模干涉(Multi-mode?interference,MMI)的器件[29]等。??此外,还有一些基于lxN环型谐振腔[30]和倒梯形波导(Inversetaper)?[31]的结??构也有相关研究,但是这些结构对微加工工艺的要求相对较高才能保证其性能。??a,b?c,??Outl?Inl?.?rwi??*?Outl??III*?In??In2?〇ut2??〇ut2?Out2??图1.4分光器件示意图,其中红色为Si,灰色为Si02。(a)?1x2?Y结。(b)?2x2绝热3dB??耦合器^?(c)?lx2MMI。??Figure?1.4?Schematic?diagrams?of?beam?splitters,?in?which?red?represents?silicon?and?gray??represents?Si〇2.?(a)?1x2?V-junction.?(b)?2x2?adiabatic?3dB?coupler
【相似文献】

相关期刊论文 前10条

1 胡悦;;金融市场中的神经网络拐点预测法[J];金融经济;2017年18期

2 刘高宇;;深度神经网络在煤质数据分析与预测中的应用[J];电脑知识与技术;2019年28期

3 冯伟业;廖可非;欧阳缮;牛耀;;基于胶囊神经网络的合成孔径雷达图像分类方法[J];科学技术与工程;2019年28期

4 温赞扬;;基于群智优化神经网络的音乐风格分类模型研究[J];现代电子技术;2019年21期

5 郑丽;;建筑设计中神经网络技术与遗传算法探究[J];湖北农机化;2019年21期

6 易炜;何嘉;邹茂扬;;基于循环神经网络的对话系统记忆机制[J];计算机工程与设计;2019年11期

7 黄为;李永刚;胡上成;汪毅;;基于循环神经网络的船摇数据实时预测[J];科学技术与工程;2019年31期

8 赖策;魏小琴;;卷积神经网络的训练方式研究[J];信息与电脑(理论版);2019年22期

9 周济民;;基于神经网络改进的元胞自动机分析——美国阿片类药物滥用情况[J];信息系统工程;2019年11期

10 马猛;王明红;;基于进化神经网络的304不锈钢车削加工表面粗糙度预测[J];轻工机械;2019年06期


相关博士学位论文 前10条

1 刘昂;微结构硅基光子学器件性能的研究[D];南京大学;2019年

2 肖理业;基于机器学习的电磁场建模与设计研究[D];电子科技大学;2019年

3 付钱华;忆阻神经网络的动力学研究[D];电子科技大学;2019年

4 张马路;Spiking机器学习算法研究[D];电子科技大学;2019年

5 杜昌顺;面向细分领域的舆情情感分析关键技术研究[D];北京交通大学;2019年

6 陈涵瀛;核电站热工水力系统工况预测与诊断方法研究[D];哈尔滨工程大学;2018年

7 梁智杰;聋哑人手语识别关键技术研究[D];华中师范大学;2019年

8 饶红霞;信息受限下神经网络的状态估计和拟同步研究[D];广东工业大学;2019年

9 赵博雅;基于卷积神经网络的硬件加速器设计及实现研究[D];哈尔滨工业大学;2018年

10 陈科海;机器翻译上下文表示方法研究[D];哈尔滨工业大学;2019年


相关硕士学位论文 前10条

1 白会杰;基于人工智能的光伏发电短期功率预测技术[D];北京交通大学;2019年

2 张荣葳;基于卷积神经网络与SimHash的网络异常流量检测技术研究[D];中国工程物理研究院;2019年

3 张超利;基于神经网络的河南省空气污染预测研究[D];华北水利水电大学;2019年

4 范汝鑫;基于深度神经网络的个性化商品推荐研究[D];合肥工业大学;2019年

5 贾凯;人工蜂群算法与BP神经网络并行集成学习研究[D];合肥工业大学;2019年

6 黄国维;基于深度学习的城市垃圾桶智能分类研究[D];安徽理工大学;2019年

7 江白华;基于深度学习的人脸识别研究[D];安徽理工大学;2019年

8 侯栋楠;基于深度特征学习的振动状态识别方法[D];华北电力大学;2019年

9 肖炜茗;基于Bernstein多项式和阶梯路径构造的前向插值神经网络及逼近能力[D];天津师范大学;2019年

10 强硕;基于神经网络的电锅炉动态过程建模研究[D];华北电力大学;2019年



本文编号:2859685

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/dianzigongchenglunwen/2859685.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户2f5b4***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com