登录

  • 登录
  • 忘记密码?点击找回

注册

  • 获取手机验证码 60
  • 注册

找回密码

  • 获取手机验证码60
  • 找回
毕业论文网 > 开题报告 > 机械机电类 > 测控技术与仪器 > 正文

基于脉冲神经网络的图文关联学习研究开题报告

 2020-05-01 08:05  

1. 研究目的与意义(文献综述)

1.1 课题研究目的及意义

20 世纪40 年代,随着神经解剖学、神经生理学以及神经元的电生理过程等的研究取得突破性进展,人们对人脑的结构、组成及最基本工作单元有了越来越充分的认识,在此基本认识的基础上,综合数学、物理学以及信息处理等学科的方法对人脑神经网络进行抽象,并建立简化的模型,称为人工神经网络ANN(Artificial Neural Network) 。

目前,在诸多领域,神经网络都发挥着很大的作用,不断地给人们制造惊喜。如谷歌公司的alphaGO通过大量的围棋对弈数据的训练最终战胜人类围棋选手;科大讯飞公司通过神经网络训练的语音合成系统与语音识别系统达到世界先进水平;中国“天网”系统通过神经网络实现对车辆号牌的实时监测,自动识别车辆违法行为,在未来,“天网”系统甚至可以实现对行人身份的实时检测。

然而,目前的人工智能都集中在专用人工智能系统,即只能实现特定的功能,并且目前的人工神经网络还停留在“识别”阶段,尚不能实现感知。因此,现有的人工神经网络技术对于实现通用人工智能系统仍然有很多困难和挑战。

不同于人工神经网络,基于神经拟态的脉冲神经网络SNN(Spike Neural Network)在原理上更加接近真实神经细胞的工作原理,采用的训练方法也是基于生物学特性的训练方法。因此,脉冲神经网络具有很多现有人工神经网络所不具有的特性,是实现通用人工智能的一种解决思路与途径。

关联学习是人类和其他动物在学习中经常采用的一种方式,例如在背单词的时候,通过将单词和图片以及相应的场景相结合可以实现更好的学习效果。本题通过在原理上更加接近人类大脑的脉冲神经网络模型结合突触可塑性原则实现两种自然信号的关联,旨在探索人类和其他动物思考的方式,发掘更为高高效的神经网络结构。

1.2 国内外研究现状

1.2.1 基础神经元模型

神经元是构成脉冲神经网络的最小单位,传统的人工神经元模型主要包含两个功能,一是对前一层神经元传递的信号计算加权和,二是采用一个非线性激活函数输出信号。 前者用于模仿生物神经元之间传递信息的方式,后者用来提高神经网络的非线性计算能力。相比于人工神经元,脉冲神经元则从神经科学的角度出发,对真实的生物神经元进行建模。

1)Hodgkin-Huxley( HH)模型

HH模型是一组描述神经元细胞膜的电生理现象的非线性微分方程,直接反映了细胞膜上离子通道的开闭情况。

图1是HH模型对应的电路图其中 C 代表脂质双层(lipid bilayer) 的电容;RNa, RK, Rl分别代表钠离子通道、 钾离子通道与漏电通道的电阻(RNa, RK 上的斜箭头表明其为随时间变化的变量, 而 R l 则为一个常数); E l, E Na, E K 分别代表由于膜内外电离子浓度差别所导致的漏电平衡电压、钠离子平衡电压、钾离子平衡电压;膜电压V代表神经膜内外的电压差,可以通过HH模型的仿真来得到V随时间变化的曲线。

图2是HH模型中神经元模型的膜电位变化图2,图中共有6个输入脉冲(垂直虚线所示),每个脉冲触发膜电压V的快速上升。如果输入脉冲之间的时间间隔较长,膜电压V就会随着时间逐渐降低至平衡电压El。如果有多个输入脉冲在短时间内连续到达,那么膜电压V会上升至发放阈值Vth,而触发一个输出脉冲。之后V被重置为低于平衡电压El的Vreset,然后逐渐回升至平衡电压El。神经元的行为与输入的时间特性密切相关,一组脉冲如果在短时间内连续到达,可以触发神经元的脉冲;但是同样数量的一组脉冲如果在较长时间内分散到达,那么膜电压的漏电效应便不会产生脉冲。

2)Leaky Integrate and Fire(LIF)模型

HH模型精确地描绘出膜电压的生物特性,能够很好地与生物神经元的电生理实验结果相吻合,但是运算量较高,难以实现大规模神经网络的实时仿真。在脉冲神经网络的仿真中,大多采用的是Leaky Integrate and Fire(LIF)模型。

LIF模型的数学表达式如下:


其中,τ=RC为膜时间常数,R为膜电阻,C为膜电导,V为膜电位,Vr为复位电位,I为注入电流。当膜电位超过一个固定的阈值时,神经元发放一个脉冲,并很快地降至复位电位并维持一小段时间,然后接受前段突触的输入脉冲重新升高膜电位。各种神经元模型均类似于此过程。


1.2.2 学习规则

两个神经元通过突触建立连接,在传统的人工神经网络中,突触通过较为简单的权值的形式体现出来,并通过反向传播法结合输出误差实现对突触权值的更新,最终完成对整个神经网络的训练。在脉冲神经网络中,突触的形式相对复杂。由于脉冲神经网络中神经元之间是通过脉冲传递信号的,所以整个网络是不连续且不可求导的,因此无法通过反向传播法对网络进行训练。最初的脉冲神经网络的学习规则主要是从生物可解释性角度出发,主要基于Hebbian规则。


Hebb在关于神经元间形成突触的理论中提到,当两个在位置上临近的神经元,在放电时间上也临近的话,他们之间很有可能形成突触。而突触前膜和突触后膜的一对神经元的放电活动(spike train)会进一步影响二者间突触的强度。这个假说也得到了实验验证。华裔科学家蒲慕明和毕国强在大树海马区神经元上,通过改变突触前膜神经元和突触后膜神经元放电的时间差,来检验二者之间突触强度的变化。实验结果如图3。

其中,EPSC表示突触强度。当EPSP(兴奋性脉冲)在spike之前产生,突触强度增强。当EPSP在spike之后产生,突触强度减弱。这个现象被称为脉冲序列相关的可塑性(Spike Timing Dependent Plasticity,STDP)。

基于该生物现象,提出了STDP学习规则。

STDP全称Spike-timing-dependent plasticity,即与脉冲时间相关的突触可塑性规则。假设突触前神经元为i,突触后神经元为j,Wi,j为神经元i到神经元j的连接权重,那么STDP规则方程如下:


其中a是常量,通常为0,k为STDP时间作用方程,tpost是突触后神经元发电的时间点,tpre是突触前神经元放电的时间点。方程k有的图像如图:


图中a-e是兴奋型神经元的STDP规则k方程曲线图,f-j是抑制性神经元的STDP规则k方程曲线图,各种曲线在不同的场合有所应用,在进行脉冲神经网络的仿真时,通常使用的时曲线(a)和曲线(f)。

1.2.3 脉冲神经网络的训练方法

STDP规则只能进行简单的无监督学习。缺少反馈信号导致单纯使用STDP规则无法完成特定的功能,只能用作神经科学的仿真,这使得SNN的发展受到了很大的限制。国内外一些学者将STDP规则和其他一些学习规则相结合,使得SNN可以完成特定的任务,下面将介绍其中的一些训练方法。

1)Tempotron算法

Tempotron是一种监督学习算法,由Rober和Haim等人在2006年提出。通过增加teacher signal的形式,对输出信号求偏差,并调整权值,实现神经网络对teacher signal的学习。该算法采用过了和传统ANN相类似的训练方法,但由于SNN非连续和不可求导的特点,偏差不能向后传播,无法使得对整个网络的权值进行调整,所以仅能进行单层网络的训练。

Tempotron算法的核心是通过teacher signal对突触连接权重wi进行更新,方程如下:


其中t为teacher signal膜电位最大时间点,ti为神经元i的脉冲发放时刻,K为脉冲贡献衰减函数,K(t)随时间变化的曲线如下:


2)SpikeProp算法

SpikeProp是一种基于反向传播的监督脉冲学习算法,由Sander等人在2000年提出。该算法将神经元内部发放脉冲的行为看作是极短时间内线性增加的过程,通过这种近似,解决了脉冲不可微分的问题,从而使得传统ANN中的反向传播法可以应用在SNN中。其后提出和一些诸如二值神经网络和量化网络模型均是采用这样的方法解决监督训练过程中不可微分的问题。

3)两层抑制SNN



两层抑制神经网络是一种无监督神经网络模型,由Diehl与COOK等人于2015年提出。通过STDP规则训练神经元与输入10个分类的关系,并在训练后通过统计的方法找出其中的规则,将这一规则应用到分类中实现分类效果。

如图是该网络的结构示意图,左侧为输入信号,中间为兴奋型神经元,在右侧为抑制型神经元,抑制层神经元用于抑制其他神经元对某一类输入信号的兴奋程度,增大兴奋型神经元对输入信号的反应区别程度。不同于之前的SNN,该网络没有对SNN进行本质的改造,主要是通过STDP等生物学规则实现检测。最终达到了95%的识别精度。

4)电压驱动的可塑性SNN

电压驱动的可塑性SNN是一种结合了监督与无监督学习的神经网络模型,由中科院自动化所张铁林、曾毅等人于2018年提出。如图是该网络的结构图:


该网络主要包含四个部分:前馈推理,无监督平衡态学习,最后层监督学习以及基于STDP原则的突触权值被动更新。其中前两个部分是无监督学习,通过前两种学习使网络的输入与输出趋于平衡状态,第三个步骤采用teacher signal实现最后一层电位信号的监督学习,最后再通过STDP规则被动地更新整个网络的突触权值信息。最终该网络实现了98.5%的检测精度。

2. 研究的基本内容与方案

2.1 主要研究内容

(1)研究stdp原则下,snn关联网络的学习和训练方式。

(2)研究snn与传统ann的耦合方式。

(3)研究两个自然信号的snn编码以及关联方式。

剩余内容已隐藏,您需要先支付后才能查看该篇文章全部内容!

3. 研究计划与安排

4. 参考文献(12篇以上)

[1] gerstner w, kistler w m. spiking neuron models: single neurons, populations, plasticity[m]. cambridge university press, 2002.

[2] izhikevich e m. simple model of spiking neurons[j]. ieee transactions on neural networks, 2003, 14(6): 1569-1572.

[3] izhikevich e m. hybrid spiking models[j]. philosophical transactions of the royal society of london a: mathematical, physical and engineering sciences, 2010, 368(1930): 5061-5070.

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

企业微信

Copyright © 2010-2022 毕业论文网 站点地图