买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】一种多移动设备的DNN任务的拆分和卸载方法_中科晶上(苏州)信息技术有限公司_201910802759.4 

申请/专利权人:中科晶上(苏州)信息技术有限公司

申请日:2019-08-28

公开(公告)日:2024-04-09

公开(公告)号:CN110764885B

主分类号:G06F9/48

分类号:G06F9/48;G06N3/082;G06N3/0464;G06N3/0442

优先权:

专利状态码:有效-授权

法律状态:2024.04.09#授权;2020.03.03#实质审查的生效;2020.02.07#公开

摘要:本发明公开了一种多移动设备的DNN任务的拆分和卸载方法,一、根据移动设备的数量、DNN任务的层数以及每个DNN任务的划分构建划分及卸载模型;二、基于多项式拟合方法获得DNN任务中每层的参数分别对各层处理时延的影响,从而获得各层的时延预测模型;三、根据DNN任务中各层的处理次序、划分及卸载模型、移动设备和服务器之间的传输时延以及时延预测模型得到DNN任务中各层的处理时间关系,并以各层的处理时间关系和服务器的处理原则为约束条件,以平均时延最小为目标函数构建优化问题,获得各DNN任务最优的划分方式以及各层的处理时间安排;本发明能够有效减低DNN任务处理的时延。

主权项:1.一种多移动设备的DNN任务的拆分和卸载方法,其特征在于,包括以下步骤:步骤一、根据移动设备的数量、DNN任务的层数以及每个DNN任务的划分构建划分及卸载模型,其中,每个移动设备有一个DNN任务,每个DNN任务被划分为两部分,前一部分在移动设备本地被处理,处理后所得的输出数据传输至服务器,后一部分被卸载到服务器由服务器处理;步骤二、基于多项式拟合方法获得DNN任务中每层的参数分别对各层处理时延的影响,从而获得各层的时延预测模型;步骤三、根据DNN任务中各层的处理次序、划分及卸载模型、移动设备和服务器之间的传输时延以及时延预测模型得到DNN任务中各层的处理时间关系,并以各层的处理时间关系和服务器的处理原则为约束条件,以平均时延最小为目标函数构建优化问题,最终获得各DNN任务最优的划分方式以及各层的处理时间安排;所述优化问题为: s.t.0≤si1<…<siM,fi1<…<fiM,sij≥fi,j-1, fij≤spq,ifxij=xpq=1andsij<spq其中,为所有DNN任务的平均处理时延,X,S,F均为N×M的矩阵,N为移动设备的数量,M为DNN任务的层数,每层为一个子任务,X中的元素xij都是0-1变量,xij=0表示移动设备i的第j个子任务在本地处理,xij=1表示移动设备i的第j个子任务由服务器处理,S中的元素sij表示移动设备i的第j个子任务开始处理的时间;F中的元素fij表示移动设备i的第j个子任务结束处理的时间; 表示移动设备i的第j个子任务的本地处理时延,表示移动设备i的第j个子任务的服务器处理时延;表示本地第k层的输出数据传输到服务器上第k+1层之间的传输时延;p=1,2,...,N,q=1,2,...,M,k=0,1,...,M-1,且当k=0时,fi0=0,为将第一层子任务处理时所需数据传输到服务器的传输时延。

全文数据:

权利要求:

百度查询: 中科晶上(苏州)信息技术有限公司 一种多移动设备的DNN任务的拆分和卸载方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。