多层级神经信息交互模型及应用研究
发布时间:2021-09-23 14:19
人类的视觉感知系统可以在极短时间内对目标物体进行识别检测,分析和理解,其高效性和精准性是目前计算机系统难以达到的水平。对视觉感知机制进行深入研究并将其应用到图像识别和检测中,对现代社会计算机视觉处理具有重要意义。本文考虑到视觉机制与生物视觉感知高效性之间的密切联系,构建多层级神经信息交互模型并应用于图像处理。首先引入经典感受野方位选择性、非经典感受野大外周抑制以及高级视皮层反馈机制,构建了基于视觉精细感知机制的响应模型。然后考虑颜色特征信息融合以丰富图像信息的提取,利用交叉感受野编码机制实现神经元信息交互,模拟视觉感知的主观能动性,强化边缘信息的连续性,完成图像边缘信息的检测。最后引入初级视皮层视通路并行处理通道,融合局部信息和整体信息,结合高级视皮层的精细化视觉处理实现边缘检测。本文的创新性和研究成果如下:(1)考虑视觉信息传递的层级性和前馈性,提出了方位层级细化与纹理动态抑制相结合的轮廓检测方法。首先提出了经典感受野的视觉特征精细感知方法,提高了轮廓方位的检测精度;此外对前级最优朝向采取多尺度特征融合策略,实现了朝向响应的多尺度优化;之后模拟了非经典感受野响应的动态抑制机制,可以有...
【文章来源】:杭州电子科技大学浙江省
【文章页数】:56 页
【学位级别】:硕士
【部分图文】:
本章算法的轮廓检测框架
杭州电子科技大学硕士学位论文15bx,yGx,ywx,y(3.12)传统纹理抑制方法并不考虑像素间在纹理特性描述上的差异性,通常直接对抑制信息bx,y进行操作,因此很难在主体轮廓漏检测和背景纹理误检测之间达到平衡。针对上述情况,提出动态抑制强度系数针对性抑制的方法,实现轮廓和纹理的差异性处理,强化主体轮廓同时剔除背景纹理信息,如图3.2所示。图3.2非经典感受野响应动态抑制计算G(x,y)中轮廓响应的梯度,如式(3.13)所示。梯度Gx,y中大于阈值thres的认定为轮廓信息的梯度值,记为()ox,y;小于阈值thres的认定为背景纹理的梯度值,记为()tx,y,如式(3.14)所示。依据前述阈值选取方法选取阈值thres。1/222(),()(,)x,yxyxyGGGxy(3.13)()(,,),()()(,,,),(),otxyxGifGthresGifGthryxyxyxyeysx(3.14)抑制强度系数需尽可能保留背景纹理信息,削减主体轮廓信息,所以采用min_max归一化方法,将轮廓信息的抑制强度系数归一化到0~0.5的范围,背景纹理信息的抑制强度系数归一化到0.5~1的范围,得到动态抑制强度系数(x,y)如式(3.15)所示:0.5(-min())/(max()min())0.5(-min())/(max()min())+0.5()oooottttx,y(3.15)将抑制强度系数(x,y)与抑制项bx,y相乘,得到对纹理进行抑制后的轮廓响应,如式(3.16)所示,其中表示点乘。
杭州电子科技大学硕士学位论文17图3.3高级视皮层显著性信息反馈融合依据前述阈值选取方法,将Zx,y中大于阈值的像素点认定为轮廓点,记作O(x,y)。将输入激励I(x,y)中O(x,y)坐标点保留下来,其余像素点选取一个极小值value代表背景纹理信息,削减背景纹理的同时凸显了显著性信息,得到激励响应N(x,y),如式(3.20)所示:(),()()(),Ix,yifx,yOx,yNx,yvalueelse(3.20)对激励响应N(x,y)使用前述的式(3.1)~(3.5),得到显著性信息提取后的轮廓多层级方位响应Lx,y,将其与高级视皮层的响应V(x,y)进行融合处理得到轮廓响应结果Rx,y,如式(3.21)所示:R(x,y)L(x,y)V(x,y)(3.21)3.2实验结果考虑到自然场景图像具有目标形态不规则、包括目标内部细节在内的纹理背景干扰复杂,以及轮廓对比度存在多级性等特性,因此选择在轮廓检测性能评估中被广泛使用的RuG自然场景图像库作为实验对象。RuG图像库包括40幅自然场景图像以及对应的人工绘制基准轮廓图。为证明本方法的可信度,选取了多种轮廓检测方法进行定性对比。选择的对比方法分别为高斯导函数模型(Gaussianderivative,GD),非经典感受野抑制模型(Isotropicsurroundinhibition,ISO)和多特征周边抑制模型(Multiple-cueinhibition,MCI)。本方法的实验参数设置:1.6,0.5,0.5。ISO和MCI方法的测试参数选取规则:外膝体细胞非经典感受野的抑制作用采用恒定的抑制系数,因此选取10个不同的抑制强度系数参数[0.1:0.1:1];滞后阈值参数p[0.1:0.1:1],找到一个最佳阈值,在此阈值左右邻域,以0.01的步长,再次搜索10组寻找最佳阈值。所以对于ISO和MCI方法,每张均会得到200组测试结果。GD
【参考文献】:
期刊论文
[1]基于点阵神经元响应时空信息的菌落图像边缘检测[J]. 廖进文,范影乐,武薇,高云园,李轶. 航天医学与医学工程. 2014(02)
[2]基于生物视觉center-surround机制的光团目标检测与跟踪[J]. 李由,张恒,雷志辉. 应用光学. 2008(02)
[3]用不稳定周期轨道理论研究神经信息编码规律[J]. 张俊沧,菅忠,龙开平,杨继庆. 第四军医大学学报. 2001(12)
本文编号:3405861
【文章来源】:杭州电子科技大学浙江省
【文章页数】:56 页
【学位级别】:硕士
【部分图文】:
本章算法的轮廓检测框架
杭州电子科技大学硕士学位论文15bx,yGx,ywx,y(3.12)传统纹理抑制方法并不考虑像素间在纹理特性描述上的差异性,通常直接对抑制信息bx,y进行操作,因此很难在主体轮廓漏检测和背景纹理误检测之间达到平衡。针对上述情况,提出动态抑制强度系数针对性抑制的方法,实现轮廓和纹理的差异性处理,强化主体轮廓同时剔除背景纹理信息,如图3.2所示。图3.2非经典感受野响应动态抑制计算G(x,y)中轮廓响应的梯度,如式(3.13)所示。梯度Gx,y中大于阈值thres的认定为轮廓信息的梯度值,记为()ox,y;小于阈值thres的认定为背景纹理的梯度值,记为()tx,y,如式(3.14)所示。依据前述阈值选取方法选取阈值thres。1/222(),()(,)x,yxyxyGGGxy(3.13)()(,,),()()(,,,),(),otxyxGifGthresGifGthryxyxyxyeysx(3.14)抑制强度系数需尽可能保留背景纹理信息,削减主体轮廓信息,所以采用min_max归一化方法,将轮廓信息的抑制强度系数归一化到0~0.5的范围,背景纹理信息的抑制强度系数归一化到0.5~1的范围,得到动态抑制强度系数(x,y)如式(3.15)所示:0.5(-min())/(max()min())0.5(-min())/(max()min())+0.5()oooottttx,y(3.15)将抑制强度系数(x,y)与抑制项bx,y相乘,得到对纹理进行抑制后的轮廓响应,如式(3.16)所示,其中表示点乘。
杭州电子科技大学硕士学位论文17图3.3高级视皮层显著性信息反馈融合依据前述阈值选取方法,将Zx,y中大于阈值的像素点认定为轮廓点,记作O(x,y)。将输入激励I(x,y)中O(x,y)坐标点保留下来,其余像素点选取一个极小值value代表背景纹理信息,削减背景纹理的同时凸显了显著性信息,得到激励响应N(x,y),如式(3.20)所示:(),()()(),Ix,yifx,yOx,yNx,yvalueelse(3.20)对激励响应N(x,y)使用前述的式(3.1)~(3.5),得到显著性信息提取后的轮廓多层级方位响应Lx,y,将其与高级视皮层的响应V(x,y)进行融合处理得到轮廓响应结果Rx,y,如式(3.21)所示:R(x,y)L(x,y)V(x,y)(3.21)3.2实验结果考虑到自然场景图像具有目标形态不规则、包括目标内部细节在内的纹理背景干扰复杂,以及轮廓对比度存在多级性等特性,因此选择在轮廓检测性能评估中被广泛使用的RuG自然场景图像库作为实验对象。RuG图像库包括40幅自然场景图像以及对应的人工绘制基准轮廓图。为证明本方法的可信度,选取了多种轮廓检测方法进行定性对比。选择的对比方法分别为高斯导函数模型(Gaussianderivative,GD),非经典感受野抑制模型(Isotropicsurroundinhibition,ISO)和多特征周边抑制模型(Multiple-cueinhibition,MCI)。本方法的实验参数设置:1.6,0.5,0.5。ISO和MCI方法的测试参数选取规则:外膝体细胞非经典感受野的抑制作用采用恒定的抑制系数,因此选取10个不同的抑制强度系数参数[0.1:0.1:1];滞后阈值参数p[0.1:0.1:1],找到一个最佳阈值,在此阈值左右邻域,以0.01的步长,再次搜索10组寻找最佳阈值。所以对于ISO和MCI方法,每张均会得到200组测试结果。GD
【参考文献】:
期刊论文
[1]基于点阵神经元响应时空信息的菌落图像边缘检测[J]. 廖进文,范影乐,武薇,高云园,李轶. 航天医学与医学工程. 2014(02)
[2]基于生物视觉center-surround机制的光团目标检测与跟踪[J]. 李由,张恒,雷志辉. 应用光学. 2008(02)
[3]用不稳定周期轨道理论研究神经信息编码规律[J]. 张俊沧,菅忠,龙开平,杨继庆. 第四军医大学学报. 2001(12)
本文编号:3405861
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3405861.html
最近更新
教材专著