当前位置:主页 > 科技论文 > 自动化论文 >

基于神经网络的虚拟靶标大视场双目相机标定技术

发布时间:2021-06-14 03:48
  针对大视场双目相机标定中的精度低和非线性畸变问题,提出了一种结合BP神经网络的大尺寸虚拟靶标标定技术。鉴于单角点棋盘格具有易制作、高精度的特性,构建大尺寸虚拟靶标;利用神经网络的非线性映射能力直接建立角点的像素坐标和世界坐标映射关系;用建立的映射网络对测试样本进行三维重建,并与传统的线性标定方法进行对比实验。结果表明,该方法操作简单,且重建距离相对误差为0.92%,优于传统的线性标定方法,可用于大视场双目相机标定。 

【文章来源】:光学技术. 2017,43(04)北大核心CSCD

【文章页数】:5 页

【部分图文】:

基于神经网络的虚拟靶标大视场双目相机标定技术


图1双目相机传感器模型得到

点靶,虚拟靶标,靶标


的局限性,提出基于神经网络的虚拟靶标大视场双目标定方法。2.1单角点棋盘格构建虚拟靶标的方法标定的高精度往往依附于靶标在相机视野中的覆盖率,随着靶标在视野中覆盖率的下降,标定精度急速降低。然而,大面积的标定靶标制造加工困难而且不易操作,对实验造成一定的困难。为此,本文提出一种虚拟立体大尺寸靶标的构建方法。将打印的单角点靶标粘贴在三坐标测量机探头上,用相机拍摄探头在某竖直平面内不同位置处单角点靶标的图像。下一平面进行同样操作,所得到的所有图像即为虚拟靶标。单角点棋盘格图形如图2所示,构建虚拟靶标过程如图3所示,靶标整体效果如图4所示。2.2BP神经网络的相机标定原理根据Kolmogorov定理和BP定理可知一个三层的BP(BackPropagation)神经网络在理论上可以逼近任何函数。BP网络能学习和存贮大量的输入-输出模式映射关系,而无需事先揭示描述这种映射关系的数学方程。BP神经网络模型拓扑结构包括输入层(Input-layer)、隐层(Hiddenlayer)和输出层(Outputlay-315第4期刘小娟,等:基于神经网络的虚拟靶标大视场双目相机标定技术

效果图,虚拟靶标


图2单角点靶标图3构建虚拟靶标图4虚拟靶标效果图er),是一种多层前馈网络,其结构如图5所示。图5神经网络拓扑结构图本文方法将左、右相机的像素坐标作为输入节点的初始值,故输入层有4个节点;靶标的三维坐标作为输出节点的值,故输出层有3个节点。隐层设为l个节点,输入向量[x1,x2,x3,x4],wji为第j(j=1,2,…,l)点与输入层第i(i=1,2,3,4)个节点的连接权值。则第j个隐层节点的输入值可表示为NETj=∑4i=1(xi×wji)(7)Oj=f1(NETj)(8)隐层节点的作用函数f1通常选取s型变换函数,设输出层节点k与隐层节点j的连接权值为wkj,输出层节点的作用函数f2通常选用线性变换函数,则输出层节点k的输出为yk=f2(∑lj=1(wkj×Oj)(9)误差函数采用均方误差函数,对所有样本,总误差为E=12∑3p=1∑4k=1(ykp-^ykp)2(10)3实验结果及分析本实验的实验设备如图6所示,主要包括美国Brown&Sharpe公司Global系列三坐标测量机一台,其测量范围为:700mm×1000mm×660mm;广州精谱徕公司G1GD05C型号的相机两台,该产品分辨率为640×480像素,帧率130fps;单角点靶标一个;三脚架两个;PC机一台以及千兆网GIGE接口数据线三条等。为对比分析本文方法的性能,采用目

【参考文献】:
期刊论文
[1]基于非参数测量模型的摄影测量方法研究[J]. 隆昌宇,邾继贵,郭寅,林嘉睿,叶声华.  光学学报. 2014(12)
[2]大尺寸摄影测量局部参数优化相对定向方法[J]. 李巍,董明利,孙鹏,王君,燕必希.  仪器仪表学报. 2014(09)
[3]无海面控制点的立体摄影海浪测量方法研究[J]. 姜文正,袁业立,王英霞.  物理学报. 2012(11)
[4]数字近景摄影大尺寸三坐标测量系统V-STARS的测试与应用[J]. 黄桂平,钦桂勤,卢成静.  宇航计测技术. 2009(02)
[5]基于神经网络的立体视觉摄像机标定[J]. 吕朝辉,张兆杨,安平.  机械工程学报. 2003(09)

硕士论文
[1]基于双目立体视觉的大型柔性结构在轨振动测量研究[D]. 张春芳.哈尔滨工业大学 2014



本文编号:3229002

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3229002.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户87bd1***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com