忆阻神经网络联想学习电路设计与分析
[Abstract]:Nowadays, artificial neural network (Ann) has always been a major concern of many researchers, but its development is mostly based on the principles and rules of neural information calculus. A neural computational model with the structural characteristics and functions of the biological nervous system was constructed on the von Neumann computer. But the ultimate goal of the development of artificial neural networks is to study and understand the intelligent principles and behaviors of the biological nervous system at the nerve cell level, so as to construct intelligent machines with intelligent behavior in the way of the biological nervous system. This is essentially different from the Von Neumann system computer, which can be defined as the fifth generation intelligent computer. The most important problem in the implementation of artificial neural networks at the hardware level is to solve the integration and connectivity of neuronal circuits and synaptic circuits. With the development of new components in recent years, the appearance of nanometer components has brought a new breakthrough. The appearance of nanocrystalline silicon thin film transistor (Nc-Si TFT) which is smaller than the traditional CMOS can improve the reaction speed and reduce the power consumption. As an important part of neuron connection, synaptic circuit not only bears the function of transmission of information between neurons, but also has the ability to be molded to realize the memory and learning of the nervous system. The appearance of the resistor provides the basis for this. The resistor is a resistor with dynamic characteristics, the resistance value can depend on the excitation voltage to change, at the same time, it has the characteristics of low energy consumption, nanometer level, long memory, etc. It can be used as the basic part of the synaptic circuit to store the synaptic connection strength. In this paper, the background of the research is introduced, the development and application of the resistor are introduced in detail, and the simulation and performance analysis of the HP type resistor under the SPICE environment is carried out. Then, the development of artificial neural network and the associative learning algorithm which has important influence on the development of artificial neural network are introduced. Finally, the process of nano-scale TFT SPICE model is given in detail, and the performance simulation in electrical environment is carried out. On this basis, in order to realize the learning function of the memory device synaptic circuit, a "integration-excitation" type neuron SPICE simulation circuit is established. The working characteristics of each component in the circuit are analyzed, and the original Mead neuron circuit structure is improved. The pulse signal generation process of the circuit is simulated by SPICE. At the same time, combining the characteristics of TFT and amnesia, a new type of synaptic circuit structure for HEBB learning is proposed, which makes the synaptic circuit more consistent with the real biological synaptic characteristics, and improves the control flexibility and extensibility of the synaptic circuit. On the basis of this design, the learning rules based on monopulse HEBB learning and average excitation rate between two neural networks are realized. Furthermore, the Pavlov experiment based on neural network with multiple neurons is carried out, which proves the usability of the neural structure design in associative learning. At the same time, in order to prove that the circuit can provide the same function as the traditional logic gate circuit, the simulation experiment is carried out to detect the coincidence of input signal on the basis of self-learning. Realizing the basic functions of traditional circuits is an important basis for the development of neural computing intelligent computer.
【学位授予单位】:重庆大学
【学位级别】:硕士
【学位授予年份】:2015
【分类号】:TN702;TP183
【相似文献】
相关期刊论文 前10条
1 云中客;新的神经网络来自于仿生学[J];物理;2001年10期
2 唐春明,高协平;进化神经网络的研究进展[J];系统工程与电子技术;2001年10期
3 李智;一种基于神经网络的煤炭调运优化方法[J];长沙铁道学院学报;2003年02期
4 程科,王士同,杨静宇;新型模糊形态神经网络及其应用研究[J];计算机工程与应用;2004年21期
5 王凡,孟立凡;关于使用神经网络推定操作者疲劳的研究[J];人类工效学;2004年03期
6 周丽晖;从统计角度看神经网络[J];统计教育;2005年06期
7 赵奇 ,刘开第 ,庞彦军;灰色补偿神经网络及其应用研究[J];微计算机信息;2005年14期
8 袁婷;;神经网络在股票市场预测中的应用[J];软件导刊;2006年05期
9 尚晋;杨有;;从神经网络的过去谈科学发展观[J];重庆三峡学院学报;2006年03期
10 杨钟瑾;;神经网络的过去、现在和将来[J];青年探索;2006年04期
相关会议论文 前10条
1 徐春玉;;基于泛集的神经网络的混沌性[A];1996中国控制与决策学术年会论文集[C];1996年
2 周树德;王岩;孙增圻;孙富春;;量子神经网络[A];2003年中国智能自动化会议论文集(上册)[C];2003年
3 罗山;张琳;范文新;;基于神经网络和简单规划的识别融合算法[A];2009系统仿真技术及其应用学术会议论文集[C];2009年
4 郭爱克;马尽文;丁康;;序言(二)[A];1999年中国神经网络与信号处理学术会议论文集[C];1999年
5 钟义信;;知识论:神经网络的新机遇——纪念中国神经网络10周年[A];1999年中国神经网络与信号处理学术会议论文集[C];1999年
6 许进;保铮;;神经网络与图论[A];1999年中国神经网络与信号处理学术会议论文集[C];1999年
7 金龙;朱诗武;赵成志;陈宁;;数值预报产品的神经网络释用预报应用[A];1999年中国神经网络与信号处理学术会议论文集[C];1999年
8 田金亭;;神经网络在中学生创造力评估中的应用[A];第十二届全国心理学学术大会论文摘要集[C];2009年
9 唐墨;王科俊;;自发展神经网络的混沌特性研究[A];2009年中国智能自动化会议论文集(第七分册)[南京理工大学学报(增刊)][C];2009年
10 张广远;万强;曹海源;田方涛;;基于遗传算法优化神经网络的故障诊断方法研究[A];第十二届全国设备故障诊断学术会议论文集[C];2010年
相关重要报纸文章 前10条
1 美国明尼苏达大学社会学博士 密西西比州立大学国家战略规划与分析研究中心资深助理研究员 陈心想;维护好创新的“神经网络硬件”[N];中国教师报;2014年
2 卢业忠;脑控电脑 惊世骇俗[N];计算机世界;2001年
3 葛一鸣 路边文;人工神经网络将大显身手[N];中国纺织报;2003年
4 中国科技大学计算机系 邢方亮;神经网络挑战人类大脑[N];计算机世界;2003年
5 记者 孙刚;“神经网络”:打开复杂工艺“黑箱”[N];解放日报;2007年
6 本报记者 刘霞;美用DNA制造出首个人造神经网络[N];科技日报;2011年
7 健康时报特约记者 张献怀;干细胞移植:修复受损的神经网络[N];健康时报;2006年
8 刘力;我半导体神经网络技术及应用研究达国际先进水平[N];中国电子报;2001年
9 ;神经网络和模糊逻辑[N];世界金属导报;2002年
10 邹丽梅 陈耀群;江苏科大神经网络应用研究通过鉴定[N];中国船舶报;2006年
相关博士学位论文 前10条
1 杨旭华;神经网络及其在控制中的应用研究[D];浙江大学;2004年
2 李素芳;基于神经网络的无线通信算法研究[D];山东大学;2015年
3 石艳超;忆阻神经网络的混沌性及几类时滞神经网络的同步研究[D];电子科技大学;2014年
4 王新迎;基于随机映射神经网络的多元时间序列预测方法研究[D];大连理工大学;2015年
5 付爱民;极速学习机的训练残差、稳定性及泛化能力研究[D];中国农业大学;2015年
6 李辉;基于粒计算的神经网络及集成方法研究[D];中国矿业大学;2015年
7 王卫苹;复杂网络几类同步控制策略研究及稳定性分析[D];北京邮电大学;2015年
8 张海军;基于云计算的神经网络并行实现及其学习方法研究[D];华南理工大学;2015年
9 李艳晴;风速时间序列预测算法研究[D];北京科技大学;2016年
10 曾U喺,
本文编号:2253545
本文链接:https://www.wllwen.com/kejilunwen/dianzigongchenglunwen/2253545.html