买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】评论扩展方法及装置_腾讯科技(深圳)有限公司_202010525544.5 

申请/专利权人:腾讯科技(深圳)有限公司

申请日:2020-06-10

公开(公告)日:2024-04-30

公开(公告)号:CN111723548B

主分类号:G06F40/126

分类号:G06F40/126;G06F16/9535;G06N3/084

优先权:

专利状态码:有效-授权

法律状态:2024.04.30#授权;2022.10.14#实质审查的生效;2020.09.29#公开

摘要:本申请提供了一种评论扩展方法、装置、电子设备及计算机可读存储介质,涉及自然语言处理技术领域。该方法包括:获取待扩展的源评论及源评论对应的源新闻;将源评论及源新闻输入预先训练的神经网络模型,得到针对源评论及源新闻的多个目标评论;其中,神经网络模型是根据包括样本评论及样本评论对应的样本新闻的训练对,和训练对对应的评论结果进行训练得到的、并用于对样本评论进行扩展的模型。本申请可以生成大量具有相关性,同时又多种多样的评论,提高源新闻话题的高质量活跃度。

主权项:1.一种评论扩展方法,其特征在于,包括:获取待扩展的源评论及所述源评论对应的源新闻;将所述源评论及所述源新闻输入预先训练的神经网络模型,得到针对所述源评论及所述源新闻的多个目标评论;其中,所述神经网络模型是根据包括样本评论及所述样本评论对应的样本新闻的训练对,和所述训练对对应的评论结果进行训练得到的、并用于对所述样本评论进行扩展的模型;其中,所述神经网络模型的训练过程,包括:获取包括所述样本评论和所述样本评论对应样本新闻的训练对,及所述训练对对应的评论结果,其中所述评论结果可从所述样本新闻对应的评论集中获取;利用所述训练对及所述评论结果,训练初始的神经网络模型,通过调整所述初始神经网络模型中的参数,使得所述初始神经网络模型满足预定的收敛条件,得到训练完成的神经网络模型,所述初始神经网络模型包括基于自注意力机制的Transformer模型;其中,所述利用所述训练对及所述评论结果,训练初始的神经网络模型,通过调整所述初始神经网络模型中的参数,使得所述初始神经网络模型满足预定的收敛条件,得到训练完成的神经网络模型,包括:将所述训练对输入所述基于自注意力机制的Transformer模型,其中,所述基于自注意力机制的Transformer模型包括编码器和解码器;利用添加所述自注意力机制的编码器分别提取样本新闻及样本评论的特征信息,分别得到所述样本新闻的新闻特征向量及所述样本评论的评论特征向量;利用预设插值函数调节所述新闻特征向量与所述评论特征向量的系数得到第一特征向量;将所述第一特征向量与所述评论结果输入所述基于自注意力机制的解码器中,利用所述基于自注意力机制的解码器得到所述评论结果对应的第二特征向量;将所述第二特征向量与所述评论结果基于交叉熵损失进行梯度运算,利用梯度下降法完成所述基于自注意力机制的Transformer模型的训练。

全文数据:

权利要求:

百度查询: 腾讯科技(深圳)有限公司 评论扩展方法及装置

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。