申请/专利权人:刘凡平
申请日:2023-05-10
公开(公告)日:2024-04-16
公开(公告)号:CN117891893A
主分类号:G06F16/31
分类号:G06F16/31;G06N3/04;G06N3/08
优先权:
专利状态码:在审-实质审查的生效
法律状态:2024.05.03#实质审查的生效;2024.04.16#公开
摘要:本发明提供了一种基于字典树的生成式神经网络模型的预训练方法,包括如下方法步骤:S1、获取原始数据,建立字典树,其中,字典树包括N层结构,N≥2;S2、抽取字典树的第K层的数据,输入生成式神经网络模型的输入层对生成式神经网络模型进行预训练,K=1、2、…、N‑1;其中,生成式神经网络模型预训练过程中采用二元交叉熵损失函数更新参数;S3、抽取字典树的第K+1层的数据,输入预训练好的生成式神经网络模型,对字典树的第K+1层的数据进行预测。本发明采用层次化的训练,提升数据采样的效率,提升生成式神经网络模型的收敛速度、降低不同词语对下一个词语预测的干扰。
主权项:1.一种基于字典树的生成式神经网络模型的预训练方法,其特征在于,所述预训练方法包括如下方法步骤:S1、获取原始数据,建立字典树,其中,所述字典树包括N层结构,N≥2;S2、抽取所述字典树的第K层的数据,输入生成式神经网络模型的输入层对生成式神经网络模型进行预训练,K=1、2、…、N-1;其中,生成式神经网络模型预训练过程中采用二元交叉熵损失函数更新参数;S3、抽取所述字典树的第K+1层的数据,输入预训练好的生成式神经网络模型,对所述字典树的第K+1层的数据进行预测。
全文数据:
权利要求:
百度查询: 刘凡平 一种基于字典树的生成式神经网络模型的预训练方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。