买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明公布】一种用于深度神经网络广度化变换的方法_哈尔滨工业大学_202310578438.7 

申请/专利权人:哈尔滨工业大学

申请日:2023-05-22

公开(公告)日:2023-08-15

公开(公告)号:CN116596030A

主分类号:G06N3/045

分类号:G06N3/045;G06N3/0464;G06N3/098;G06N5/04

优先权:

专利状态码:在审-实质审查的生效

法律状态:2023.09.01#实质审查的生效;2023.08.15#公开

摘要:本发明涉及神经网络技术领域,具体涉及一种用于深度神经网络广度化变换的方法,该方法将深度神经网络通过多阶笛卡尔扩张变换为具有单层的广度神经网络,具体地,其通过激活函数转换、神经元转换、隐含层转换、网络广度化变换、整体优化等操作将代表性深度神经网络变换为广度神经网络,实现在典型应用中基本保持深度网络性能基础上,大幅降低计算复杂度和参数量,有效提高运行效率。此外,压缩后的广度神经网络模型中的神经元计算彼此独立,使得该模型能够在大规模分布式节点上进行并行计算和部署。

主权项:1.一种用于深度神经网络广度化变换的方法,其特征在于:包括如下步骤:S1、数学符号约定:给定向量A=a1,a2,…,aNT,则笛卡尔扩张DEA[2]=A×A: 对A进行P次重复的DE扩张,因此我们得到A[P],A[1]称为向量A的一阶笛卡尔扩张,自然地,A[P]为P阶DE扩张向量,特别地,我们定义0阶向量A的DE扩张A[0]=1; S2、激活函数变换利用Hermite多项式拟合激活函数并展开,具体地,采用Hermite多项式利用最小二乘法对激活函数进行拟合,首先,根据公式1,对Hermite多项式进行初始化,在一定区域内选取K个点,通过xk和激活函数f计算yk,然后根据最小二乘法最小化误差的平方和寻找与激活函数的最佳Hermite多项式匹配系数a; yk=fxk2 S3、神经元变换S31、神经元的展开令MLP中一个神经元有N维度输入Xx1,x2,…,xN,对应权值Ww1,w2,...,wN,神经元偏置为b,激活函数为f,由此能够得到,该神经元的输出为y=fWX+b,然后,使用拟合后的埃尔米特多项式H对激活函数f进行替换,将多项式完全展开后,该神经元将输入转换成高阶交叉项,系数转换成权值,常数项转换成偏置,得到广度神经元,输出为 其中,为整理为DEPX后对应权值;S32、神经元的裁剪基于幂率分布的神经元裁剪方法实现神经元的裁剪,具体地,由公式6可知,拟合后的P阶Hermite多项式表示为:对输入X在不同阶数进行了不同力度的裁剪后再进行展开;PDEPX=1,α1X[1],α2X[2],...,αPX[P]其中,PDEPX表示P阶裁剪的DE空间,αP保留P阶DE项的百分比,αP=p-b其中b是控制衰减速率的超参数;为保证计算效率,通过保留部分输入Xcut进行P阶DE展开,得到具有和αPX[P]相同的结果,将Xx1,x2,…,xN按照对应权值Ww1,w2,...,wN的一范数排序,取前l个元素生成Xcut,只需满足: 然后从1阶到P阶迭代操作,生成具有PDEPX的多阶笛卡尔扩张神经元,具有的DE项数总长度L为: S4、隐含层变换当MLP某一线性层的全部神经元替换完成,即可对该层和与之连接的激活层进行压缩合并,转换成完整的广度层;然后基于弹性网络规则进行层剪枝,并进行MODE隐含层微调;具体地,利用权重剪枝再训练策略,对MODELayer的权值分布进行微调训练,在该层加入了L1正则化约束,微调训练结束后,继续重复剪枝再训练过程,直至当前网络loss大于原始网络loss,值得注意的是,再训练过程使用L2正则化约束代替L1正则化约束,以防止过度剪枝;S5、网络广度化变换当在隐含层上迭代执行操作时,得到两个连续的MODE层,在网络输入的高维MODE空间中将它们组合成单个MODE层,并通过迭代地进行操作最终将深度神经网络转换成广度神经网络。

全文数据:

权利要求:

百度查询: 哈尔滨工业大学 一种用于深度神经网络广度化变换的方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。