买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】基于集成DPU多核异构的神经网络计算加速方法及装置_国网安徽省电力有限公司超高压分公司;国网安徽省电力有限公司合肥供电公司;安徽继远软件有限公司;国网信息通信产业集团有限公司;国家电网有限公司_202110139491.8 

申请/专利权人:国网安徽省电力有限公司超高压分公司;国网安徽省电力有限公司合肥供电公司;安徽继远软件有限公司;国网信息通信产业集团有限公司;国家电网有限公司

申请日:2021-02-01

公开(公告)日:2024-04-16

公开(公告)号:CN112990454B

主分类号:G06N3/082

分类号:G06N3/082;G06N3/063;G06N3/045

优先权:

专利状态码:有效-授权

法律状态:2024.04.16#授权;2024.03.19#专利申请权的转移;2024.03.19#著录事项变更;2021.07.06#实质审查的生效;2021.06.18#公开

摘要:本发明公开了基于集成DPU多核异构的神经网络计算加速方法及装置,包括:检测待计算神经网络的卷积核候选冗余数据,所述候选冗余数据包括网络拓扑结构和卷积核参数;根据候选冗余数据对神经网络进行优化缩减并进行重新训练,获取优化网络;基于优化网络进行待处理数据的计算;所述重新训练过程以及待处理数据的计算过程采用基于DPU多核异构处理器系统进行。本发明对于神经网络计算加速,从网络模型本身和网络模型计算架构两方面结合,通过软件优化设计与硬件加速运算的协同作用,实现神经网络的推理过程加速。

主权项:1.基于集成DPU多核异构的神经网络计算加速方法,其特征在于,包括:检测待计算神经网络的卷积核候选冗余数据,所述候选冗余数据包括网络拓扑结构和卷积核参数;根据候选冗余数据对神经网络进行优化缩减并进行重新训练,获取优化网络;基于优化网络进行待处理数据的计算;所述重新训练过程以及待处理数据的计算过程采用基于DPU多核异构处理器系统进行;所述根据候选冗余数据对神经网络进行优化缩减并进行重新训练,包括:对不同网络层裁剪不同数量的重要性低的卷积核,并对神经网络进行重新训练;对网络层的卷积核参数进行关于比特数的减小处理,并对神经网络进行重新训练;所述对不同网络层裁剪不同数量的重要性低的卷积核,包括:根据同一网络层上的不同卷积核的重要度大小,获得同一网络层上不同卷积核的裁剪优先度,所述重要度采用至少两种重要性分析结果的融合重要度;根据不同网络层对于神经网络准确率的关联性大小确定不同网络层的裁剪数量;所述获得同一网络层上不同卷积核的裁剪优先度,包括:基于不同卷积核输出和网络输出的损失信息大小,确定不同卷积核重要度;基于卷积核输出值与剩余卷积核输出值间的相关度,计算卷积核与整个网络的相关度,确定不同卷积核重要度;基于卷积核权值矩阵的L1范数大小,确定不同卷积核重要度;基于对于同一卷积核的不同种类重要度排序号获取融合排序号。

全文数据:

权利要求:

百度查询: 国网安徽省电力有限公司超高压分公司;国网安徽省电力有限公司合肥供电公司;安徽继远软件有限公司;国网信息通信产业集团有限公司;国家电网有限公司 基于集成DPU多核异构的神经网络计算加速方法及装置

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。