买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】一种基于编码器-解码器的生成式摘要提取方法_中山大学_201910315538.4 

申请/专利权人:中山大学

申请日:2019-04-19

公开(公告)日:2021-04-13

公开(公告)号:CN110032638B

主分类号:G06F16/34(20190101)

分类号:G06F16/34(20190101);G06F40/279(20200101);G06N3/04(20060101)

优先权:

专利状态码:有效-授权

法律状态:2021.04.13#授权;2019.08.13#实质审查的生效;2019.07.19#公开

摘要:本发明公开了一种基于编码器‑解码器的生成式摘要提取方法,该方法基于含有注意力机制的编码器‑解码器框架,引入了变分自编码网络和复制的思想。方法的编码器部分与常规编码器相同,所用基本单元为GRU,解码器部分共有三层,第一层和第二层是GRU解码层,用于确定性部分的输出,第三层是变分自编码层,用于潜在结构变量部分的输出,而注意力机制将会被引入到第二层GRU中。在网络的输出部分,将复制部分和生成部分的隐藏层状态合为一体后映射为网络的输出。同时,在变分自编码层中增加了历史依赖项,使之能够适应时序网络。该方法充分利用了编码器隐藏层状态的信息,提高了输出准确率,具有更好的性能。

主权项:1.一种基于编码器-解码器的生成式摘要提取方法,其特征在于,所述的生成式摘要提取方法包括以下步骤:S1、对于给定的摘要数据集,首先进行预处理过程,经预处理后得到短文本特征和目标摘要特征Y=[y1,y2,...,yT],然后将短文本特征X输入到由编码器和解码器组成的网络中进行训练,所述的编码器用于对输入短文本特征X进行编码形成编码向量,所述的解码器用于对编码向量进行解码输出目标摘要;S2、将短文本特征X按时序输入到编码器中,所述的编码器由单层双向GRU网络构成,每个时刻的单层双向GRU网络的输入对应短文本特征X中的一个向量,前向GRU的输入顺序为从前往后,即从x1到后向GRU的输入顺序为从后往前,即从到x1,每个单层双向GRU网络在t时刻的输入包括该时刻的文本特征向量xt和上一时刻单层双向GRU网络输出的隐藏层状态ht-1,单层双向GRU网络表示为:rt=σWxrxt+Whrht-1+br1zt=σWxzxt+Whzht-1+bz2gt=tanhWxhxt+Whhrt*ht-1+bh3ht=zt*ht-1+1-zt*gt4其中,xt为输入,ht-1为上一时刻的隐藏层状态,ht为t时刻输出的隐藏层状态,Wxr、Whr、Wxz、Whz、Wxh、Whh为权重矩阵,br、bz、bh为偏置,rt为重置门,zt为更新门,gt为需要更新的信息,*为点乘运算,σ·为Sigmoid激活函数,tanh·为Tanh激活函数;将短文本特征X通过编码器输出t时刻的前向隐藏层状态和后向隐藏层状态拼接,得到t时刻最终的编码器隐藏层状态将所有时刻的求平均,得到用于解码的编码向量表示为: 其中,Te为输入序列长度;S3、对编码向量进行解码,通过解码器第一层单向GRU网络进行解码,t时刻解码器第一层单向GRU网络的输入包括上一时刻本层单向GRU网络输出的隐藏层状态和上一时刻的解码器输出yt-1,其中,单向GRU网络隐藏层状态的初始值为步骤S2中的编码向量本层t时刻的输出为隐藏层状态本层单向GRU网络在t时刻的解码结果表示为: 其中,GRU1·表示第一层解码器基本单元为GRU网络,yt-1为上一时刻的解码输出,为第一层解码器单向GRU网络上一时刻输出的隐藏层状态,初始状态为编码向量S4、根据编码器的输出隐藏层状态和解码器第一层单向GRU网络的输出隐藏层状态计算输出注意力向量ct,表示为: 其中,为编码器在j时刻的隐藏层状态,为解码器第一层单向GRU网络在i时刻的隐藏层状态,ai,j为编码器的隐藏层状态对解码器第一层单向GRU网络的隐藏层状态的权重,为权重矩阵,ba为偏置,v为线性转换向量,Te为输入序列长度,tanh·为Tanh激活函数,ct为注意力向量,ei,j为中间计算变量;S5、通过解码器第二层单向GRU网络进行解码,t时刻第二层单向GRU网络的输入包括上一时刻本层GRU输出的隐藏层状态上一时刻的解码器输出yt-1以及注意力向量ct,GRU隐藏层状态的初始值为编码向量本层t时刻的输出为隐藏层状态本层单向GRU网络在t时刻的解码结果表示为: 其中,GRU2·表示第二层解码器基本单元为GRU网络,yt-1为上一时刻的解码输出,为解码器第二层单向GRU网络上一时刻输出的隐藏层状态,初始状态为编码向量ct为注意力向量;S6、通过解码器第三层进行变分自编码过程,其中,第三层是单向变分自编码网络,t时刻的变分自编码网络输入包括解码器第一层单向GRU网络上一时刻输出的隐藏层状态本层上一时刻输出的潜在结构信息zt-1以及上一时刻的解码器输出yt-1,上述输入先通过神经网络得到均值μt和标准差σt,再通过一个高斯分布的辅助噪声变量ε~N0,I作用输出潜在结构信息zt,第三层变分自编码在t时刻的解码结果表示为: zt=μt+σt*ε14其中,为权重矩阵,为偏置,yt-1为上一时刻的解码输出,zt-1为变分自编码层上一时刻输出的潜在结构信息,为解码器第一层单向GRU网络上一时刻输出的隐藏层状态,μt和σt为变分自编码层通过神经网络生成的均值和标准差,σ·为Sigmoid激活函数;S7、计算解码器的生成部分输出,t时刻的生成部分包括解码器第三层的变分自编码网络在t时刻输出的潜在结构信息zt和解码器第二层单向GRU网络在t时刻输出的隐藏层状态t时刻的生成部分输出表示为: 其中,为权重矩阵,为偏置,tanh·为Tanh激活函数;S8、接着计算概率开关pswitch,概率开关的输入包括t时刻得到的注意力向量ct和解码器第二层单向GRU网络在t时刻输出的隐藏层状态t时刻的概率开关表示为: 其中,σ·为Sigmoid激活函数,为权重矩阵,为偏置;S9、计算解码器的输出,将解码器的生成部分和复制部分用概率开关pswitch进行加权求和,得到解码器t时刻的输出隐藏层状态h,表示为: 其中,为生成部分的隐藏层状态;将解码器的输出隐藏层状态h映射为解码器的输出yt,解码器t时刻的输出为: 其中,为权重矩阵,为偏置,softmax·为归一化函数。

全文数据:一种基于编码器-解码器的生成式摘要提取方法技术领域本发明涉及摘要提取技术领域,具体涉及一种基于编码器-解码器的生成式摘要提取方法。背景技术如今,网络上到处都充斥着不同种类的信息,如何从海量信息中提取出最关键最有效的信息成为非常重要的研究方向。文本摘要提取能够从单篇或多篇文档中自动生成关键摘要,帮助人们快速获取需要的信息。目前,摘要提取技术已经应用在文本相关的各个领域,主要是为了处理信息过载问题。例如,摘要提取技术可以自动提炼新闻标题,帮助人们在最短的时间内了解最有价值的新闻内容。目前主流的文本摘要提取算法大致可以分为两种类型:抽取式摘要和生成式摘要。抽取式摘要思路比较简单,即根据一定的算法,从原文本中找到与原文本中心思想最一致的一个或几个句子组成摘要。抽取式摘要方法提取出的摘要质量以及流畅度都差强人意,但技术相对比较成熟,且算法简单,成本较低,因此仍具有巨大的研究价值。生成式摘要较为复杂,即计算机根据算法对原文本进行阅读和理解,并按照自己的方式生成流畅的摘要语句。相比于抽取式摘要,生成式摘要方法更接近人写摘要的过程。2014年,由谷歌公司的谷歌大脑团队提出的seq2seq模型,开启了自然语言处理领域中端到端网络的火热研究。近年来,深度神经网络模型的出现极大地推动了机器学习的发展。深度学习方法可以从原始数据中自动抽取内在特征,避免了繁重的人工特征抽取过程,文本摘要提取也因为结合了深度神经网络模型而取得了更优的效果。其中,编码器-解码器框架频繁地应用于摘要提取、机器翻译、推荐系统等自然语言处理任务中。该框架可以有效处理序列转换问题,先将输入序列按照顺序进行输入编码,再根据编码向量按顺序解码出目标序列,解码过程中,还可以利用各种注意力机制,使得解码过程更优。虽然现有很多模型中都引入了注意力机制,但都不是非常充分,如果能够在模型的解码部分更多地强调注意力机制的作用,同时又不舍弃模型本身的输出状态,而是将它们同时作为输出状态的一部分,将有可能获得更好的模型性能。发明内容本发明的目的是为了解决现有技术中的上述缺陷,提供一种基于编码器-解码器的生成式摘要提取方法,将变分自编码嵌入到解码器中,并引入了复制的思想,使得摘要提取能够充分考虑注意力机制的作用,从而获得更好的摘要提取性能。本发明的目的可以通过采取如下技术方案达到:一种基于编码器-解码器的生成式摘要提取方法,所述的生成式摘要提取方法包括以下步骤:S1、对于给定的摘要数据集,首先进行预处理过程,经预处理后得到短文本特征和目标摘要特征Y=[y1,y2,...,yT],然后将短文本特征X输入到由编码器和解码器组成的网络中进行训练,所述的编码器用于对输入短文本特征X进行编码形成编码向量,所述的解码器用于对编码向量进行解码输出目标摘要;S2、将短文本特征X按时序输入到编码器中,所述的编码器由单层双向GRU网络构成,每个时刻的单层双向GRU网络的输入对应短文本特征X中的一个向量,前向GRU的输入顺序为从前往后,即从x1到后向GRU的输入顺序为从后往前,即从到x1,每个单层双向GRU网络在t时刻的输入包括该时刻的文本特征向量xt和上一时刻单层双向GRU网络输出的隐藏层状态ht-1,单层双向GRU网络表示为:rt=σWxrxt+Whrht-1+br1zt=σWxzxt+Whzht-1+bz2gt=tanhWxhxt+Whhrt*ht-1+bh3ht=zt*ht-1+1-zt*gt4其中,xt为输入,ht-1为上一时刻的隐藏层状态,ht为t时刻输出的隐藏层状态,Wxr、Whr、Wxz、Whz、Wxh、Whh为权重矩阵,br、bz、bh为偏置,rt为重置门,zt为更新门,gt为需要更新的信息,*为点乘运算,σ·为Sigmoid激活函数,tanh·为Tanh激活函数;将短文本特征X通过编码器输出t时刻的前向隐藏层状态和后向隐藏层状态拼接,得到t时刻最终的编码器隐藏层状态将所有时刻的求平均,得到用于解码的编码向量表示为:其中,Te为输入序列长度;S3、对编码向量进行解码,通过解码器第一层单向GRU网络进行解码,t时刻解码器第一层单向GRU网络的输入包括上一时刻本层单向GRU网络输出的隐藏层状态和上一时刻的解码器输出yt-1,其中,单向GRU网络隐藏层状态的初始值为步骤S2中的编码向量本层t时刻的输出为隐藏层状态本层单向GRU网络在t时刻的解码结果表示为:其中,GRU1·表示第一层解码器基本单元为GRU网络,yt-1为上一时刻的解码输出,为第一层解码器单向GRU网络上一时刻输出的隐藏层状态,初始状态为编码向量S4、根据编码器的输出隐藏层状态和解码器第一层单向GRU网络的输出隐藏层状态计算输出注意力向量ct,表示为:其中,为编码器在j时刻的隐藏层状态,为解码器第一层单向GRU网络在i时刻的隐藏层状态,ai,j为编码器的隐藏层状态对解码器第一层单向GRU网络的隐藏层状态的权重,为权重矩阵,ba为偏置,v为线性转换向量,Te为输入序列长度,tanh·为Tanh激活函数,ct为注意力向量,ei,j为中间计算变量;S5、通过解码器第二层单向GRU网络进行解码,t时刻第二层单向GRU网络的输入包括上一时刻本层GRU输出的隐藏层状态上一时刻的解码器输出yt-1以及注意力向量ct,GRU隐藏层状态的初始值为编码向量本层t时刻的输出为隐藏层状态本层单向GRU网络在t时刻的解码结果表示为:其中,GRU2·表示第二层解码器基本单元为GRU网络,yt-1为上一时刻的解码输出,为解码器第二层单向GRU网络上一时刻输出的隐藏层状态,初始状态为编码向量ct为注意力向量;S6、通过解码器第三层进行变分自编码过程,其中,第三层是单向变分自编码网络,t时刻的变分自编码网络输入包括解码器第一层单向GRU网络上一时刻输出的隐藏层状态本层上一时刻输出的潜在结构信息zt-1以及上一时刻的解码器输出yt-1,上述输入先通过神经网络得到均值μt和标准差σt,再通过一个高斯分布的辅助噪声变量ε~N0,I作用输出潜在结构信息zt,第三层变分自编码在t时刻的解码结果表示为:zt=μt+σt*ε14其中,为权重矩阵,为偏置,yt-1为上一时刻的解码输出,zt-1为变分自编码层上一时刻输出的潜在结构信息,为解码器第一层单向GRU网络上一时刻输出的隐藏层状态,μt和σt为变分自编码层通过神经网络生成的均值和标准差,σ·为Sigmoid激活函数;S7、计算解码器的生成部分输出,t时刻的生成部分包括解码器第三层的变分自编码网络在t时刻输出的潜在结构信息zt和解码器第二层单向GRU网络在t时刻输出的隐藏层状态t时刻的生成部分输出表示为:其中,为权重矩阵,为偏置,tanh·为Tanh激活函数;S8、接着计算概率开关pswitch,概率开关的输入包括t时刻得到的注意力向量ct和解码器第二层单向GRU网络在t时刻输出的隐藏层状态t时刻的概率开关表示为:其中,σ·为Sigmoid激活函数,为权重矩阵,为偏置;S9、计算解码器的输出,将解码器的生成部分和复制部分用概率开关pswitch进行加权求和,得到解码器t时刻的输出隐藏层状态h,表示为:其中,为生成部分的隐藏层状态,ct为复制部分的隐藏层状态;将解码器的输出隐藏层状态h映射为解码器的输出yt,解码器t时刻的输出为:其中,为权重矩阵,为偏置,softmax·为归一化函数。进一步地,所述的步骤S1中预处理的过程如下:S11、将样本的短文本和目标摘要切分成单个的字;S12、将短文本中的词去重后构建source字典,目标摘要中的词去重后构建target字典;S13、将source字典和target字典中的词,生成固定维度的随机向量作为某个词的词向量;S14、将每个短文本和目标摘要分别填充到对应的最大长度。上述对短文本进行预处理是为了将短文本转变成计算机可以识别的向量,使其能够送入网络进行训练;对目标摘要进行预处理是为了能够将目标摘要转变成计算机可以识别的向量,使其能够与网络的解码输出一起计算出网络的优化目标,进而对网络进行训练。进一步地,所述的网络的优化目标为:其中,DKL[·]为KL散度,N为样本个数,T为输出序列长度,X为输入短文本序列,yt为t时刻的解码输出,y<t为t时刻之前的解码输出,zt为变分自编码网络在t时刻输出的潜在结构信息,z<t为变分自编码网络在t时刻之前输出的潜在结构信息,log[p·]为解码输出在t时刻的似然函数,为变分自编码网络的编码器概率分布,pθ·为变分自编码网络的解码器概率分布。本发明相对于现有技术具有如下的优点及效果:1本发明通过变分自编码网络,将生成式方法引入到本方法中,提高了输出目标摘要的准确率;2本发明通过双层GRU解码器,使变分自编码网络的引入成为了可能,增强了本发明与其他网络结合的可能性;3本发明通过在输出中引入复制的思想,将输出分为复制和生成两部分,增强了编码器对于解码过程的作用,使输出结果更加精确;附图说明图1是本发明中编码器-解码器的生成式摘要提取结构框图;图2是变分自编码结构图;图3是GRU基本结构图;图4是LCSTS数据集各部分分布图;图5是预处理过程图;图6是分词结果示例图;图7是source字典示例图;图8是source字典词向量示例图。具体实施方式为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。实施例如图1,图2,图3,图4,图5,图6,图7以及图8所示,为了方便描述本实施例,本实施例仅以LCSTS数据集为例,说明本实施例。本实施例公开了一种基于编码器-解码器的生成式摘要提取方法,包括以下步骤:S1、对于给定的摘要数据集,首先进行预处理过程,经预处理后得到短文本特征目标摘要特征Y=[y1,y2,...,yT],然后将预处理后的短文本特征X输入到网络中进行训练。网络主要包括编码器和解码器两部分,编码器用于对输入短文本进行编码形成编码向量,解码器用于对编码向量进行解码输出目标摘要;S2、首先是编码过程。将短文本特征X按时序输入到编码器中,本方法的编码器由单层双向GRU网络构成,每个时刻的单层双向GRU网络的输入都对应短文本特征X中的一个向量。单层双向GRU网络中,前向GRU的输入顺序为从前往后,即从x1到后向GRU的输入顺序为从后往前,即从到x1。每个GRU在t时刻的输入除了该时刻的文本特征向量xt,还有上一时刻GRU输出的隐藏层状态ht-1,GRU使用公式表示为:rt=σWxrxt+Whrht-1+br1zt=σWxzxt+Whzht-1+bz2gt=tanhWxhxt+Whhrt*ht-1+bh3ht=zt*ht-1+1-zt*gt4其中,xt为输入,ht-1为上一时刻的隐藏层状态,Wxr、Whr、Wxz、Whz、Wxh、Whh为权重矩阵,br、bz、bh为偏置,rt为重置门,zt为更新门,*为点乘运算,σ·为Sigmoid激活函数,tanh·为Tanh激活函数。短文本特征X通过编码器输出t时刻的前向隐藏层状态和后向隐藏层状态再将和拼接起来,可以得到t时刻最终的编码器隐藏层状态将所有时刻的求平均,便可得到用于解码的编码向量使用公式表示为:其中,Te为输入序列长度;S3、编码完成后,接着是解码,首先进行解码器第一层单向GRU网络的解码过程。解码器第一层是单向GRU网络,t时刻的单向GRU网络输入包含两部分,即上一时刻本层单向GRU网络输出的隐藏层状态和上一时刻的解码器输出yt-1,单向GRU网络隐藏层状态的初始值为步骤S2中的编码向量本层t时刻的输出为隐藏层状态本层单向GRU网络在t时刻的解码结果使用公式表示为:其中,GRU1·表示解码器第一层基本单元为单向GRU网络,yt-1为上一时刻的解码输出,为解码器第一层单向GRU网络上一时刻输出的隐藏层状态,初始状态为S4、接着根据编码器的输出隐藏层状态和解码器第一层单向GRU网络的输出隐藏层状态计算注意力机制。即用给定步骤S2中输出的编码器隐藏层状态与步骤S3中解码器第一层单向GRU网络输出的隐藏层状态一起计算输出注意力向量ct,使用公式表示为:其中,为编码器在j时刻的隐藏层状态,为解码器第一层单向GRU网络在i时刻的隐藏层状态,ai,j为编码器的隐藏层状态对解码器第一层单向GRU网络的隐藏层状态的权重,为权重矩阵,ba为偏置,v为线性转换向量,Te为输入序列长度,tanh·为Tanh激活函数,ct为注意力向量;S5、接着要进行解码器第二层单向GRU网络的解码过程。解码器第二层也是单向GRU网络,t时刻的GRU输入包含三部分,即上一时刻本层单向GRU网络输出的隐藏层状态上一时刻的解码器输出yt-1以及步骤S4中的注意力向量ct,单向GRU网络隐藏层状态的初始值为步骤S2中的编码向量本层t时刻的输出为隐藏层状态本层单向GRU网络在t时刻的解码结果使用公式表示为:其中,GRU2·表示第二层解码器基本单元为单向GRU网络,yt-1为上一时刻的解码输出,为解码器第二层单向GRU网络上一时刻输出的隐藏层状态,初始状态为ct为注意力机制的输出。S6、接着要进行解码器第三层的变分自编码过程。本层是单向变分自编码网络,t时刻的变分自编码网络输入包括三部分,即步骤S3中解码器第一层GRU上一时刻输出的隐藏层状态本层上一时刻输出的潜在结构信息zt-1以及上一时刻的解码器输出yt-1。这些输入先通过神经网络得到均值μt和标准差σt,再通过一个高斯分布的辅助噪声变量ε~N0,I作用输出潜在结构信息zt。本层变分自编码在t时刻的解码结果使用公式表示为:zt=μt+σt*ε14其中,为权重矩阵,为偏置,yt-1为上一时刻的解码输出,zt-1为变分自编码层上一时刻输出的潜在变量信息,为解码器第一层单向GRU网络上一时刻输出的隐藏层状态,μt和σt为变分自编码层通过神经网络生成的均值和标准差,σ·为Sigmoid激活函数;S7、接着要计算解码器的生成部分输出。t时刻的生成部分由两部分状态组成,即步骤S6中解码器第三层的变分自编码网络在t时刻输出的潜在结构信息zt和步骤S5中解码器第二层单向GRU网络在t时刻输出的隐藏层状态t时刻的生成部分使用公式表示为:其中,为权重矩阵,为偏置,tanh·为Tanh激活函数。S8、计算概率开关pswitch。t时刻解码器的输出包含生成部分和复制部分。生成部分为步骤S7中得到的复制部分为步骤S4中得到的注意力向量ct。用一个概率开关pswitch对这两部分进行权衡,1-pswitch表示复制部分的所占比重,pswitch表示生成部分的所占比重。概率开关pswitch的输入包括两部分,即步骤S4中t时刻得到的注意力向量ct和步骤S5中解码器第二层单向GRU网络在t时刻输出的隐藏层状态t时刻的概率开关使用公式表示为:其中,σ·为Sigmoid激活函数,为权重矩阵,为偏置;S9、计算解码器的输出。将解码器的生成部分和复制部分用概率开关pswitch进行加权求和,得到解码器t时刻的输出隐藏层状态h,使用公式表示为:其中,为生成部分的隐藏层状态,ct为复制部分的隐藏层状态;最终,将解码器的输出隐藏层状态h映射为解码器的输出yt,解码器t时刻的输出为:其中,为权重矩阵,为偏置,softmax·为归一化函数;S10、计算整个网络的优化目标。本方法的最终优化目标为:其中,DKL[·]为KL散度,N为样本个数,T为输出序列长度。其中,步骤S1中预处理实施的具体过程为:S11、如图6所示,对LCSTS数据集进行分词,将文本和目标摘要变成单个的字体;S12、如图7所示,将所有短文本中的词去重后构建source字典,所有目标摘要中的词去重后构建target字典;S13、如图8所示,对source里的词,生成350维的随机向量作为某个词的词向量,词向量数据范围为-1到1,target字典进行同样操作;S14、将短文本和目标摘要分别用“<PAD>”填充到对应的最大长度120和25,然后将其作为特征输入到本方法的模型中。综上所述,该方法基于含有注意力机制的编码器-解码器框架,引入了变分自编码网络和复制的思想。方法的编码器部分与常规编码器相同,所用基本单元为GRU,解码器部分共有三层,第一层和第二层是GRU解码层,用于确定性部分的输出,第三层是变分自编码层,用于潜在结构变量部分的输出,而注意力机制将会被引入到第二层GRU中。在网络的输出部分,将复制部分和生成部分的隐藏层状态合为一体后映射为网络的输出。同时,在变分自编码层中增加了历史依赖项,使之能够适应时序网络。该方法充分利用了编码器隐藏层状态的信息,提高了输出准确率,具有更好的性能。上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

权利要求:1.一种基于编码器-解码器的生成式摘要提取方法,其特征在于,所述的生成式摘要提取方法包括以下步骤:S1、对于给定的摘要数据集,首先进行预处理过程,经预处理后得到短文本特征和目标摘要特征Y=[y1,y2,...,yT],然后将短文本特征X输入到由编码器和解码器组成的网络中进行训练,所述的编码器用于对输入短文本特征X进行编码形成编码向量,所述的解码器用于对编码向量进行解码输出目标摘要;S2、将短文本特征X按时序输入到编码器中,所述的编码器由单层双向GRU网络构成,每个时刻的单层双向GRU网络的输入对应短文本特征X中的一个向量,前向GRU的输入顺序为从前往后,即从x1到后向GRU的输入顺序为从后往前,即从到x1,每个单层双向GRU网络在t时刻的输入包括该时刻的文本特征向量xt和上一时刻单层双向GRU网络输出的隐藏层状态ht-1,单层双向GRU网络表示为:rt=σWxrxt+Whrht-1+br1zt=σWxzxt+Whzht-1+bz2gt=tanhWxhxt+Whhrt*ht-1+bh3ht=zt*ht-1+1-zt*gt4其中,xt为输入,ht-1为上一时刻的隐藏层状态,ht为t时刻输出的隐藏层状态,Wxr、Whr、Wxz、Whz、Wxh、Whh为权重矩阵,br、bz、bh为偏置,rt为重置门,zt为更新门,gt为需要更新的信息,*为点乘运算,σ·为Sigmoid激活函数,tanh·为Tanh激活函数;将短文本特征X通过编码器输出t时刻的前向隐藏层状态和后向隐藏层状态拼接,得到t时刻最终的编码器隐藏层状态将所有时刻的求平均,得到用于解码的编码向量表示为:其中,Te为输入序列长度;S3、对编码向量进行解码,通过解码器第一层单向GRU网络进行解码,t时刻解码器第一层单向GRU网络的输入包括上一时刻本层单向GRU网络输出的隐藏层状态和上一时刻的解码器输出yt-1,其中,单向GRU网络隐藏层状态的初始值为步骤S2中的编码向量本层t时刻的输出为隐藏层状态本层单向GRU网络在t时刻的解码结果表示为:其中,GRU1·表示第一层解码器基本单元为GRU网络,yt-1为上一时刻的解码输出,为第一层解码器单向GRU网络上一时刻输出的隐藏层状态,初始状态为编码向量S4、根据编码器的输出隐藏层状态和解码器第一层单向GRU网络的输出隐藏层状态计算输出注意力向量ct,表示为:其中,为编码器在j时刻的隐藏层状态,为解码器第一层单向GRU网络在i时刻的隐藏层状态,ai,j为编码器的隐藏层状态对解码器第一层单向GRU网络的隐藏层状态的权重,为权重矩阵,ba为偏置,v为线性转换向量,Te为输入序列长度,tanh·为Tanh激活函数,ct为注意力向量,ei,j为中间计算变量;S5、通过解码器第二层单向GRU网络进行解码,t时刻第二层单向GRU网络的输入包括上一时刻本层GRU输出的隐藏层状态上一时刻的解码器输出yt-1以及注意力向量ct,GRU隐藏层状态的初始值为编码向量本层t时刻的输出为隐藏层状态本层单向GRU网络在t时刻的解码结果表示为:其中,GRU2·表示第二层解码器基本单元为GRU网络,yt-1为上一时刻的解码输出,为解码器第二层单向GRU网络上一时刻输出的隐藏层状态,初始状态为编码向量ct为注意力向量;S6、通过解码器第三层进行变分自编码过程,其中,第三层是单向变分自编码网络,t时刻的变分自编码网络输入包括解码器第一层单向GRU网络上一时刻输出的隐藏层状态本层上一时刻输出的潜在结构信息zt-1以及上一时刻的解码器输出yt-1,上述输入先通过神经网络得到均值μt和标准差σt,再通过一个高斯分布的辅助噪声变量ε~N0,I作用输出潜在结构信息zt,第三层变分自编码在t时刻的解码结果表示为:zt=μt+σt*ε14其中,为权重矩阵,为偏置,yt-1为上一时刻的解码输出,zt-1为变分自编码层上一时刻输出的潜在结构信息,为解码器第一层单向GRU网络上一时刻输出的隐藏层状态,μt和σt为变分自编码层通过神经网络生成的均值和标准差,σ·为Sigmoid激活函数;S7、计算解码器的生成部分输出,t时刻的生成部分包括解码器第三层的变分自编码网络在t时刻输出的潜在结构信息zt和解码器第二层单向GRU网络在t时刻输出的隐藏层状态t时刻的生成部分输出表示为:其中,为权重矩阵,为偏置,tanh·为Tanh激活函数;S8、接着计算概率开关pswitch,概率开关的输入包括t时刻得到的注意力向量ct和解码器第二层单向GRU网络在t时刻输出的隐藏层状态t时刻的概率开关表示为:其中,σ·为Sigmoid激活函数,为权重矩阵,为偏置;S9、计算解码器的输出,将解码器的生成部分和复制部分用概率开关pswitch进行加权求和,得到解码器t时刻的输出隐藏层状态h,表示为:其中,为生成部分的隐藏层状态,ct为复制部分的隐藏层状态;将解码器的输出隐藏层状态h映射为解码器的输出yt,解码器t时刻的输出为:其中,为权重矩阵,为偏置,softmax·为归一化函数。2.根据权利要求1所述的一种基于编码器-解码器的生成式摘要提取方法,其特征在于,所述的步骤S1中预处理的过程如下:S11、将样本的短文本和目标摘要切分成单个的字;S12、将短文本中的词去重后构建source字典,目标摘要中的词去重后构建target字典;S13、将source字典和target字典中的词,生成固定维度的随机向量作为某个词的词向量;S14、将每个短文本和目标摘要分别填充到对应的最大长度。3.根据权利要求1所述的一种基于编码器-解码器的生成式摘要提取方法,其特征在于,所述的网络的优化目标为:其中,DKL[·]为KL散度,N为样本个数,T为输出序列长度,X为输入短文本序列,yt为t时刻的解码输出,y<t为t时刻之前的解码输出,zt为变分自编码网络在t时刻输出的潜在结构信息,z<t为变分自编码网络在t时刻之前输出的潜在结构信息,log[p·]为解码输出在t时刻的似然函数,为变分自编码网络的编码器概率分布,pθ·为变分自编码网络的解码器概率分布。

百度查询: 中山大学 一种基于编码器-解码器的生成式摘要提取方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。