买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明公布】网络模型分散加载方法、装置及电子设备_杭州海康威视数字技术股份有限公司_202311829328.X 

申请/专利权人:杭州海康威视数字技术股份有限公司

申请日:2023-12-27

公开(公告)日:2024-03-19

公开(公告)号:CN117724819A

主分类号:G06F9/48

分类号:G06F9/48;G06F9/50;G06N3/10;G06N3/0464

优先权:

专利状态码:在审-实质审查的生效

法律状态:2024.04.05#实质审查的生效;2024.03.19#公开

摘要:本申请提供了网络模型分散加载方法、装置及电子设备。本申请,在终端设备加载神经网络模型时,会先依据终端设备的当前可用内存空间DM,确定DM是否满足终端设备当前待加载的神经网络模型所需的存储资源要求,在确定DM不满足待加载的神经网络模型所需的存储资源要求时,依据DM对神经网络模型中的网络层进行分段,以使得任一分段被终端设备加载运行时所需要的存储资源小于DM,之后,终端设备按照神经网络模型被运行时的操作顺序依次加载分段并运行,这实现了终端设备通过神经网络模型分散加载的方式加载神经网络模型,避免神经网络模型本身容量和计算指令的内存占用量与终端设备本地可用内存的冲突。

主权项:1.一种网络模型分散加载方法,其特征在于,该方法包括:依据终端设备的当前可用内存空间DM,确定所述DM是否满足所述终端设备当前待加载的神经网络模型所需的存储资源要求;在确定所述DM不满足待加载的神经网络模型所需的存储资源要求时,依据所述DM,对所述神经网络模型中的网络层进行分段得到n个分段,n大于1;其中,任一分段被所述终端设备加载运行时所需要的存储资源小于所述DM;所述n个分段被所述终端设备按照所述神经网络模型被运行时的操作顺序依次加载运行。

全文数据:

权利要求:

百度查询: 杭州海康威视数字技术股份有限公司 网络模型分散加载方法、装置及电子设备

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。