买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】一种Bert模型预训练方法、系统及计算机设备_恩亿科(北京)数据科技有限公司_202011503784.1 

申请/专利权人:恩亿科(北京)数据科技有限公司

申请日:2020-12-18

公开(公告)日:2024-04-02

公开(公告)号:CN112528650B

主分类号:G06F40/284

分类号:G06F40/284;G06F40/126;G06N20/00

优先权:

专利状态码:有效-授权

法律状态:2024.04.02#授权;2021.04.06#实质审查的生效;2021.03.19#公开

摘要:本申请涉及一种Bert模型预训练方法、系统及计算机设备,其中,该Bert模型预训练方法包括:原始数据集获取步骤,用于获取原始数据集;数据集预处理步骤,用于将所述原始数据集经分词处理得到分词数据集,将所述分词数据集经Word2Vec模型训练得到全部词汇的词嵌入矩阵,并将所述词汇根据出现频率进行排序、编码,得到高频词汇、低频词汇及词汇编码;Bert模型预训练步骤,用于冻结所述Bert模型的词嵌入矩阵参数并基于所述全部词汇的词嵌入矩阵训练所述Bert模型后,减小学习率并输入所述词汇编码再次训练所述Bert模型。通过本申请,优化模型参数的收敛,有效防止模型震荡。

主权项:1.一种Bert模型预训练方法,其特征在于,包括:原始数据集获取步骤,用于获取原始数据集;数据集预处理步骤,用于将所述原始数据集经分词处理得到分词数据集,将所述分词数据集经Word2Vec模型训练得到全部词汇的词嵌入矩阵,并将所述词汇根据出现频率进行排序、编码,将排序后的词汇根据一设定阈值N分为高频词汇和低频词汇,基于高频词汇及低频词汇生成词汇编码;Bert模型预训练步骤,用于冻结所述Bert模型的词嵌入矩阵参数并基于所述全部词汇的词嵌入矩阵训练所述Bert模型后,减小学习率并输入所述词汇编码再次训练所述Bert模型,所述Bert模型预训练步骤进一步包括:部分参数预训练步骤,用于初始化所述Bert模型的词嵌入矩阵的词表大小为N+1,冻结所述Bert模型的词嵌入矩阵参数,输入所述全部词汇的词嵌入矩阵中的词向量至所述Bert模型,以训练所述Bert模型中非词嵌入矩阵参数;模型参数预训练步骤,用于减小所述Bert模型的学习率,利用所述词向量初始化所述Bert模型的词嵌入矩阵,输入所述词汇编码至所述Bert模型,以训练所述Bert模型的各层参数。

全文数据:

权利要求:

百度查询: 恩亿科(北京)数据科技有限公司 一种Bert模型预训练方法、系统及计算机设备

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。