买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】一种基于脉冲神经网络的自学习、小样本学习和迁移学习的方法与系统_北京理工大学_202011246987.7 

申请/专利权人:北京理工大学

申请日:2020-11-10

公开(公告)日:2023-05-26

公开(公告)号:CN112288078B

主分类号:G06N3/049

分类号:G06N3/049;G06N3/096;G06N3/0442

优先权:

专利状态码:有效-授权

法律状态:2023.05.26#授权;2021.02.23#实质审查的生效;2021.01.29#公开

摘要:一种基于脉冲神经网络的自学习、小样本学习和迁移学习的方法,构建记忆网络、认知网络和知识归纳与迁移网络三个模块,通过模块之间协同合作实现自学习、小样本学习和迁移学习。小样本输入数据经过认知网络模块处理之后由记忆网络模块实现记忆生成,随后知识归纳与迁移网络模块发起记忆提取请求,记忆网络模块收到记忆提取请求后,提取记忆、重组并回放到认知网络模块;认知网络模块完成自学习过程,并通过不断持续该过程最终实现小样本学习,知识归纳与迁移网络模块不断更新当前任务所需知识,实现迁移学习。本发明实现了自学习、小样本学习和迁移学习,突破了神经网络学习需要大量标注样本、鲁棒性和适应性差、可解释性不足、能效比低等局限。

主权项:1.一种基于脉冲神经网络的MNIST数据集识别方法,基于的系统包括认知网络、记忆网络以及知识归纳与迁移网络;所述认知网络,用于小样本数据输入的处理和初步提取样本中的知识;所述记忆网络,用于存储学习到的所有知识;所述知识归纳与迁移网络,包括用于记忆提取的学习网络模块和用于表征当前任务所需要的记忆的知识归纳模块;其中,所述认知网络的输出分为两个部分,一部分输出连接记忆网络,将知识存储在记忆网络中,另一部分输出连接知识归纳模块,将当前任务所需的知识存储在知识归纳模块中;所述认知网络是一个基于STDP规则学习的多层脉冲神经元网络,整体上分为输入层、隐藏层和输出层,所述输入层使用a个脉冲生成器构建,接收脉冲信息后在对应的时间产生脉冲,所述隐藏层使用一个多层网络构建,层与层之间进行全连接,其中神经元包含抑制型神经元和兴奋型神经元,其权值学习和结构学习基于STDP规则和HEBB规则,并且是有监督的学习;所述输出层使用三个部分构建,第一部分是预测结果,第二部分是b个脉冲神经元,在接收到隐藏层的输入和预测结果后将其提取和转换对应成相应的脉冲输入到记忆网络进行记忆,第三部分由c个算子组成,用于将隐藏层输出和预测结果转换成静态结构,存储到知识归纳模块中;其中,输入层和隐藏层第一层之间全连接,隐藏层最后一层和输出层的脉冲神经元全连接;所述记忆网络包括输入模块、记忆模块和输出模块,知识被存储在神经元之间的结构中,不仅包括突触权值,其本身的拓扑结构也存储着信息;所述记忆网络使用多层脉冲神经网络构建,整体上分为输入层、记忆层和输出层,所述输入层由b+1个正常脉冲神经元和一个门控神经元组成,正常脉冲神经元用于接收知识归纳与迁移网络或者认知网络输入的脉冲,门控神经元用于判断当前输入是需要提取相关记忆还是存储相关记忆,在记忆层进行处理前,如果门控神经元激发则为提取记忆,随后记忆层中的突触权值和结构都会被冻结,无法生成新的记忆,如果没激发则是存储,记忆层中的突触权值和结构是可被改变的;所述记忆层由d个记忆模块灵活组建,每个记忆模块视为p*q*l的脉冲神经元阵列,视任务难度调节d的值,记忆层维护一个时间窗,用于存储激发的神经元,如果有一群神经元激发时间的差值小于εt,并且空间距离也小于εdis,则认为这是存储了相关记忆的神经元团,将其中神经元随机连接到输出层的部分神经元上,记忆层突触生长和权值学习过程基于HEBB规则和STDP规则;所述输出层由a个正常脉冲神经元构建,对记忆层中的神经元团响应情况进行汇总,然后输出到认知网络;其中每个输入层神经元随机向e个记忆模块中的f个神经元建立连接,每个记忆模块中的神经元团和输出层之间建立全连接;所述知识归纳与迁移网络使用多层脉冲神经网络构建,整体上分为定时器、输入层、隐藏层和输出层;所述输入层使用g个正常的脉冲生成器构建,将知识归纳模块进行编码转换成脉冲激发时间后输入到输入层,输入层中的脉冲生成器接收到输入后在对应的时间产生脉冲;所述隐藏层使用h个加了噪音的脉冲神经元构建,每层之间为全连接,加有噪声后,对输入脉冲之间的关系产生扰动,进而达到联想的效果,其中隐藏层中突触权值调整基于STDP规则;所述输出层使用b+1个正常脉冲神经元和一个脉冲生成器构建,正常脉冲神经元将隐藏层的输出进行汇总然后输入到记忆网络,脉冲神经元连接向记忆网络的门控神经元,在输出层其他神经元输入到记忆网络前激活记忆网络输入层的门控神经元;其中输入层和隐藏层之间全连接,隐藏层和输出层之间全连接,所述定时器设定合理的时候t后,每间隔t进行激发,将知识归纳模块输入到知识归纳与迁移网络中,开启一轮自学习;所述知识归纳模块是一个N*M*K的权值矩阵,N*M是一个矩阵大小,K是矩阵数量,所述知识归纳模块是静态结构,每次更新时将原先的权值进行一些衰减,然后加上新数据,该过程是一个attention机制,随着知识归纳模块的更新,旧内容渐渐被新内容替换,天然具有实现迁移学习的能力;所述知识归纳模块的更新过程如下:步骤1:将当前输入和之前的输入进行相似度计算,使用Jaccard系数、余弦相似度来衡量相似度均可,假设相似度为si,保证si小于1.0;步骤2:设置常数α,α1,获得衰减系数siα,这个公式表明,相似度越高,知识归纳与迁移网络的知识归纳模块的历史信息丢失越快,反之丢失越慢;步骤3:将知识归纳模块原先权值乘以步骤2中计算的衰减系数后加上新的输入;其特征在于,识别方法包括:s1,对MNIST数据集每个数字各挑选100张图片作为训练集用于训练;s2,将选出来的训练集中的图片进行卷积操作,选择四个卷积核,卷积完成后每张图片转换到大小为12*12*4;s3,将数据集按类别进行排序,再按顺序输入所述系统,每次输入之间间隔10s,其中认知网络的输入层脉冲神经元数量为12*12*4个,隐藏层规模选择1000*3,每层抑制性神经元和兴奋性神经元比例为1:5,输出层的预测结果部分是10个脉冲神经元,b选择为576,所有连向这576个神经元的突触的权值固定为500;s4,对认知网络进行基于HEBB的监督学习,算子选择两种,一个是频率统计,计算作为输出的b个神经元对当前图片输入时的激发频率,另一个是统计这b个神经元的时间窗内的激发序列;s5,更新知识归纳模块,常数α取2;构建记忆网络,选择10个记忆模块,每个记忆模块大小为50*50*5,输出层大小选择576,εt选择5ms,εdis选择4;s6,构建知识归纳与迁移网络的学习网络模块,输入层g为576*2,隐藏层h为1000,定时器设置t为100ms;s7,训练时,每张图片10s,在系统中自学习100次;预测时,关闭所有突触的可塑性和定时器,输入要预测的图片到认知网络,但不取第一次认知网络的输出结果,而是让认知网络输入到知识归纳与迁移网络中,然后提取记忆网络中的记忆,再次输入到认知网络,预测结果为此时认知网络的输出。

全文数据:

权利要求:

百度查询: 北京理工大学 一种基于脉冲神经网络的自学习、小样本学习和迁移学习的方法与系统

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。