买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明公布】一种动态调整Batch-size的神经网络分布式训练方法_四川大学_202010561810.X 

申请/专利权人:四川大学

申请日:2020-06-18

公开(公告)日:2020-08-07

公开(公告)号:CN111507474A

主分类号:G06N3/08(20060101)

分类号:G06N3/08(20060101);G06N3/063(20060101);G06N3/04(20060101);G06K9/62(20060101)

优先权:

专利状态码:有效-授权

法律状态:2022.07.01#授权;2020.09.01#实质审查的生效;2020.08.07#公开

摘要:本发明公开了一种动态调整Batch‑size的神经网络分布式训练方法,涉及计算机神经网络分布式训练技术领域,该方法从处理训练数据集的角度出发,对于分布式集群中的每一计算节点,根据其计算力,动态调整Batch‑size和子数据集的划分。从而实现分布式训练集群的负载均衡处理。动态调整Batch‑size的分布式神经网络训练方法不仅可以充分利用各个计算节点的计算能力,还能保证各个计算节点完成本地数据集训练的时间大致相同,从而减少集群的同步开销,提高神经网络分布式训练效率,减少神经网络训练时间。

主权项:1.一种动态调整Batch-size的神经网络分布式训练方法,其特征在于,包括以下步骤:S1、各计算节点获取参数初始化后的神经网络;S2、对于每一计算节点,根据其计算力,动态调整Batch-size,根据集群训练集样本和调整后的Batch-size,划分得到子数据样本集;S3、对于每一计算节点,将其本地的子数据样本集划分为若干个训练批次样本集;S4、对于每一计算节点,获取其一未使用过的训练批次样本集对本地神经网络进行训练,得到本地神经网络训练好的梯度;S5、收集所有计算节点本地神经网络训练好的梯度;S6、根据所有训练好的梯度和当前的神经网络参数,计算出新神经网络参数;S7、将新神经网络参数分发至各计算节点,若所有计算节点的训练批次样本集均使用过,则当前epoch的神经网络分布式训练结束,跳转至步骤S8,否则跳转至步骤S4;S8、若当前的epoch次数等于epochsize,则神经网络分布式训练结束,否则跳转至骤S2。

全文数据:

权利要求:

百度查询: 四川大学 一种动态调整Batch-size的神经网络分布式训练方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。