买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】一种基于局部与全局互注意力机制的文本分类方法_华南理工大学_201910091937.7 

申请/专利权人:华南理工大学

申请日:2019-01-30

公开(公告)日:2020-11-24

公开(公告)号:CN109902293B

主分类号:G06F40/30(20200101)

分类号:G06F40/30(20200101);G06F16/33(20190101);G06F16/35(20190101);G06N3/04(20060101)

优先权:

专利状态码:有效-授权

法律状态:2020.11.24#授权;2019.07.12#实质审查的生效;2019.06.18#公开

摘要:本发明公开了一种基于局部与全局互注意力机制的文本分类方法,步骤如下:获取文本数据,并进行预处理,将文本单词用预训练的词向量进行表示;利用长短期记忆网络捕获文本序列的全局长期依赖,利用多尺度卷积神经网络获取文本序列的局部语义特征;把全局长期依赖和局部语义特征作为局部与全局互注意力机制的输入,得到加权全局长期依赖和加权局部语义特征;再采用加权池化,得到最终的全局表示向量和局部表示向量;输入到全连接层融合全局表示向量和局部表示向量,再输入到分类层,进行分类。本发明并行地捕获全局长期依赖和局部语义特征,显式地学习这两种特征之间的交互,从而得到更好的文本全局和局部特征表示,进一步提高文本分类的精度。

主权项:1.一种基于局部与全局互注意力机制的文本分类方法,其特征在于,所述的文本分类方法包括以下步骤:S1、获取文本数据集,对数据进行预处理,把文本序列的每个单词映射为词向量;S2、使用双向长短期记忆网络来捕获文本序列的全局长期依赖,同时,使用多尺度卷积神经网络提取文本序列的局部语义特征;其中,所述的步骤S2中并行提取文本序列的全局长期依赖和局部语义特征,过程如下:S2.1、使用双向长短期记忆网络提取全局长期依赖,在时间步t,单个方向的隐藏层状态ht更新如下: ct=ft⊙ct-1+it⊙gtht=ot⊙tanhct其中,ht-1是时间步t-1的单个方向长短期记忆网络隐藏层状态,kglo为单向长短期记忆网络的隐藏层状态维度,xt是时间步t的输入,it、ft、ot分别是单向长短期记忆网络的输入门、遗忘门和输出门;gt是细胞临时状态,ct是细胞状态,σ、tanh是非线性激活函数,⊙是逐元素的乘法,M是由可训练参数组成的仿射变换函数;将文本序列以正向输入到长短期记忆网络中,并获得前向隐藏层状态将文本序列以反方向输入长短期记忆网络,更新后向隐藏层状态隐藏层状态的两个方向连接如下: 其中,t=1,2,...,T,T是输入时间步的长度,是拼接操作,表示时间步t的全局长期依赖;拼接每个时间步的隐藏层状态向量形成矩阵,其定义如下: 其中,是文本序列的全局长期依赖矩阵,T是输入时间步的长度,kglo为单向长短期记忆网络的隐藏层状态维度,H的每列表示文本序列对应位置处的全局长期依赖;S2.2、使用多尺度卷积神经网络提取局部语义特征,令为卷积运算的卷积核,其中,w为卷积核的宽度,d是卷积核的高度,其值等于输入维度,kloc是卷积核的数量,对于位置i的单词,卷积操作表示为: 其中,b表示偏置项,xi-w2+1:i+w2指词向量表示xi-w2+1,...,xi,...,xi+w2的拼接,*是卷积运算,f是非线性变换函数,是文本序列位置i处的kloc维局部w元特征向量,卷积核应用于文本序列的每个位置,使用零填充以生成与输入相同长度的特征映射: 其中,是文本序列每个位置的局部语义特征矩阵,是使用相同大小的窗口进行卷积得到的局部语义特征矩阵;接下来使用多尺度卷积神经网络,使用不同大小的窗口进行卷积操作,假设r是窗口w的数量,得到r个卷积操作的结果,拼接起来得到局部语义特征矩阵S3、构建一种局部与全局互注意力机制,使用步骤S2中提取的全局长期依赖和每个位置的局部语义特征作为输入,用局部语义特征关注全局长期依赖产生局部指导的全局注意力权重,进行加权得到加权全局特征,用全局长期依赖关注局部语义特征产生全局指导的局部注意力权重,进行加权得到加权局部特征;其中,所述的步骤S3中构建局部与全局互注意力机制的过程如下:S3.1、采用局部与全局互注意力机制,将步骤S2中提取的全局长期依赖H和局部语义特征C作为输入,线性映射到较低维度k中,映射m次,m是局部与全局互注意力机制的子空间数目,将H和C映射到不同的子空间i: 其中,是投影参数矩阵,i=1,2,...,m;S3.2、使用局部语义特征指导全局长期依赖,根据局部语义特征的每个位置计算全局长期依赖的全局注意力上下文,公式如下: 其中,i=1,2,...,m,是第i个子空间的全局注意力上下文,Ai∈RT×T是全局注意力权重,接着拼接每一个子空间的全局注意力上下文,得到加权全局特征 使用全局长期依赖指导局部语义特征,根据全局长期依赖的每个位置计算局部语义特征的局部注意力上下文,公式如下: 其中,i=1,2,...,m,是第i个子空间的局部注意力上下文,Bi∈RT×T是局部注意力权重,接着拼接每一个子空间的局部注意力上下文,得到加权局部特征 S4、使用上述的加权全局特征和加权局部特征,随时间步加权池化,产生最终的全局表示向量和局部表示向量;其中,所述的步骤S4中随时间步加权池化的过程如下:将步骤S3中得到的加权全局特征和加权局部特征作为输入,加权全局特征的随时间步加权过程如下: 其中,W1∈Rmk×mk,w2∈Rmk是权重矩阵,B1∈RT×mk,b2∈RT是偏置,α∈RT,是加权全局特征的第i个向量的得分,zH∈Rmk是最终的全局表示向量;加权局部特征的随时间步加权过程如下: 其中,W3∈Rmk×mk,w4∈Rmk是权重矩阵,B3∈RT×mk,b4∈RT是偏置,β∈RT,是加权局部特征的第i个向量的得分,zC∈Rmk是最终的全局表示向量;S5、拼接上述的全局表示向量和局部表示向量,输入全连接层,再输入softmax层进行分类。

全文数据:一种基于局部与全局互注意力机制的文本分类方法技术领域本发明涉及文本分类技术领域,具体涉及一种基于局部与全局互注意力机制的文本分类方法。背景技术文本分类是自然语言处理中的一个基本问题,需要将一个或多个预定类别分配给一个文本序列。文本分类的核心是学习一个序列表示,来处理情感分析,问题分类和主题分类等等问题。目前,学习一个序列表示,常用的方法是建模序列的长期依赖表示或序列的局部语义特征。卷积神经网络通过卷积核,可以比较好地提取文本序列的局部语义特征。Y.Kim提出了一个多通道卷积神经网络,使用了来自word2vec的静态词向量和在文本分类任务中微调的词向量,可以进一步提高分类准确性。虽然基于卷积神经网络的模型有利于从序列数据中学习局部响应,但它缺乏学习序列整体联系的能力。循环神经网络适用于建模序列表示以及序列的长期依赖,因此许多用于文本分类任务的循环神经网络变体被提出。Z.Yang等人提出了层次注意力模型,将注意力机制引入分层门控循环单元,使模型能够更好地捕获文档的重要信息。然而,循环神经网络中的信息是随时间步逐渐累积的,信息没有跳跃的连接,很难得到复杂的语义特征,使分类效果下降。近期,一些研究者试图将卷积神经网络和循环神经网络的优势结合起来,利用它们来提取全局长期依赖和局部语义特征。C.Zhou等人提出了C-LSTM,利用卷积神经网络提取高层的短语表示,将其输入长短期记忆网络以获得句子表示。C-LSTM能够捕获全局长期依赖和局部语义特征,但这两种信息以级联方式连接,级联方式使模型变深,容易导致梯度消失问题。并且,这种方法没有尝试学习两种信息之间的相互作用。发明内容本发明的目的是为了解决现有技术中的上述缺陷,提供一种基于局部与全局互注意力机制的文本分类方法。本发明的目的可以通过采取如下技术方案达到:一种基于局部与全局互注意力机制的文本分类方法,所述的文本分类方法包括以下步骤:S1、获取文本数据集,对数据进行预处理,把本文序列的每个单词映射为词向量;S2、使用双向长短期记忆网络来捕获文本序列的全局长期依赖,同时,使用多尺度卷积神经网络提取文本序列的局部语义特征;S3、构建一种局部与全局互注意力机制,使用步骤S2中提取的全局长期依赖和每个位置的局部语义特征作为输入,用局部语义特征关注全局长期依赖产生局部指导的全局注意力权重,进行加权得到加权全局特征,用全局长期依赖关注局部语义特征产生全局指导的局部注意力权重,进行加权得到加权局部特征;S4、使用步骤S3中得到的加权全局特征和加权局部特征,随时间步加权池化,产生最终的全局表示向量和局部表示向量;S5、拼接步骤S4中得到的全局表示向量和局部表示向量,输入全连接层,再输入softmax层进行分类。进一步地,所述的步骤S2中并行提取文本序列的全局长期依赖和局部语义特征,过程如下:S2.1、使用双向长短期记忆网络提取全局长期依赖,在时间步t,单个方向的隐藏层状态ht更新如下:ct=ft⊙ct-1+it⊙gtht=ot⊙tanhct其中,ht-1是时间步t-1的单个方向长短期记忆网络隐藏层状态,kglo为单向长短期记忆网络的隐藏层状态维度,xt是时间步t的输入,it、ft、ot分别是单向长短期记忆网络的输入门、遗忘门和输出门。gt是细胞临时状态,ct是细胞状态,σ、tanh是非线性激活函数,⊙是逐元素的乘法,M是由可训练参数组成的仿射变换函数;将文本序列以正向输入到长短期记忆网络中,并获得前向隐藏层状态将文本序列以反方向输入长短期记忆网络,更新后向隐藏层状态隐藏层状态的两个方向连接如下:其中,t=1,2,...,T,T是输入时间步的长度,是拼接操作,htfb表示时间步t的全局长期依赖;拼接每个时间步的隐藏层状态向量形成矩阵,其定义如下:其中是文本序列的全局长期依赖矩阵,T是输入时间步的长度,kglo为单向长短期记忆网络的隐藏层状态维度,H的每列表示文本序列对应位置处的全局长期依赖;S2.2、使用多尺度卷积神经网络提取局部语义特征,令为卷积运算的卷积核,其中,w为卷积核的宽度,d是卷积核的高度等于输入维度,kloc是卷积核的数量,对于位置i的单词,卷积操作表示为:其中,b表示偏置项,xi-w2+1:i+w2指词向量表示xi-w2+1,...,xi,...,xi+w2的拼接,*是卷积运算,f是非线性变换函数,是文本序列位置i处的kloc维局部w元特征向量,卷积核应用于文本序列的每个位置,使用零填充以生成与输入相同长度的特征映射:其中,是文本序列每个位置的局部语义特征矩阵。是使用相同大小的窗口进行卷积得到的局部语义特征矩阵。接下来使用多尺度卷积神经网络,使用不同大小的窗口进行卷积操作,假设r是窗口w的数量,可以得到r个卷积操作的结果,拼接起来得到局部语义特征进一步地,所述的步骤S3中构建局部与全局互注意力机制的过程如下:S3.1、采用局部与全局互注意力机制,将步骤S2中提取的全局长期依赖H和局部语义特征C作为输入,线性映射到较低维度k中,映射m次,m是局部与全局互注意力机制的子空间数目。将H和C映射到不同的子空间i:其中,是投影参数矩阵,i=1,2,…,m。S3.2、使用局部语义特征指导全局长期依赖,可以建模文本序列的组合语义,得到丰富的复杂语义特征。根据局部语义特征的每个位置计算全局长期依赖的全局注意力上下文,公式如下:其中,i=1,2,…,m,是第i个子空间的全局注意力上下文,Ai∈RT×T是全局注意力权重,接着拼接每一个子空间的全局注意力上下文,得到加权全局特征使用全局长期依赖指导局部语义特征,可以去除局部语义中冗余或者不相关的特征,根据全局长期依赖的每个位置计算局部语义特征的局部注意力上下文,公式如下:其中,i=1,2,…,m,是第i个子空间的局部注意力上下文,Bi∈RT×T是局部注意力权重,接着拼接每一个子空间的局部注意力上下文,得到加权局部特征进一步地,所述的步骤S4中随时间步加权池化的过程如下:将步骤S3中得到的加权全局特征和加权局部特征作为输入,加权全局特征的随时间步加权过程如下:其中,W1∈Rmk×mk,w2∈Rmk是权重矩阵,B1∈RT×mk,b2∈RT是偏置,α∈RT,i=1,2,…,T是加权全局特征的第i个向量的得分,zH∈Rmk是最终的全局表示向量;类似的,加权局部特征的随时间步加权过程如下:其中,W3∈Rmk×mk,w4∈Rmk是权重矩阵,B3∈RT×mk,b4∈RT是偏置,β∈RT,是加权局部特征的第i个向量的得分,zC∈Rmk是最终的全局表示向量。进一步地,所述的步骤S5过程如下:将步骤S4得到的最终全局表示向量zH和最终局部表示向量zC作为输入,预测每个类别i的概率预测公式如下:其中,Wfc和Wsm是全连接层和softmax层的权重矩阵,bfc和bsm是偏置项;以减少交叉熵损失作为训练目标进行训练,其中,交叉熵损失的表达式如下:其中,y是真实分布,是预测输出分布,是两个分布的交叉熵函数。本发明相对于现有技术具有如下的优点及效果:本发明提出同时提取文本序列的局部信息和全局信息来建模文本表示,首先,本发明用双向长短期记忆网络提取全局特征,用卷积神经网络提取局部特征,并显式地学习这两种特征之间的交互,从而得到更好的文本全局和局部特征表示,进一步提高文本分类的精度。而现有模型大多是通过级联的方式连接全局和局部信息,级联的方式使模型加深,容易导致梯度消失问题,并且这两种信息之间没有交互。其次,本发明提出局部与全局互注意力机制,一方面使用局部语义特征关注全局长期依赖,可以建模文本序列的组合语义,得到丰富的复杂语义特征。另一方面使用全局长期依赖关注局部语义特征,可以去除冗余或者不相关特征。此外,本发明的方法相比目前其它同时建模文本序列长期依赖和局部语义特征的模型,可以取得较好的效果。本发明提出了一种基于局部与全局互注意力机制的文本分类方法,该方法可以得到更好的序列表示。附图说明图1是本发明中公开的基于局部与全局互注意力机制的文本分类方法的流程步骤图;图2是本发明中公开的基于局部与全局互注意力机制的文本分类方法的互注意力模块图。具体实施方式为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。实施例如图1所示,本实施例公开了基于局部与全局互注意力机制的文本分类方法,该方法包括以下步骤:步骤S1、获取文本数据集,对数据进行预处理,把本文序列的每个单词映射为词向量。获取SUBJ,TREC,CR,20Newsgroups,MovieReview等基准文本分类数据集和亚马逊产品评论中的十六个数据集,给定数据集其中,Wn=w1,w2,…wT是文本序列,yn是其对应的标签,T是文本序列的长度,N是数据集中的样本数。令xi∈Rd是与文本序列中的第i个词wi对应的d维词向量,这里使用300维预训练好的word2vec词向量,输入文本序列可以表示为嵌入矩阵:其中是拼接操作,并且x1:T∈RT×d。步骤S2、使用双向长短期记忆网络来捕获文本序列的全局长期依赖,同时,使用多尺度卷积神经网络提取文本序列的局部语义特征。具体过程如下:S2.1、使用双向长短期记忆网络提取全局长期依赖。在时间步t,单个方向的隐藏层状态ht更新如下:ct=ft⊙ct-1+it⊙gtht=ot⊙tanhct其中,ht-1是时间步t-1的单个方向长短期记忆网络隐藏层状态,kglo为单向长短期记忆网络的隐藏层状态维度,xt是时间步t的输入,it,ft,ot分别是单向长短期记忆网络的输入门,遗忘门和输出门。gt是细胞临时状态,ct是细胞状态,σ、tanh是非线性激活函数,⊙是逐元素的乘法,M是由可训练参数组成的仿射变换函数。将文本序列以正向输入到长短期记忆网络中,并获得前向隐藏层状态类似地,文本序列以反方向输入长短期记忆网络,更新后向隐藏层状态隐藏层状态的两个方向连接如下:其中,t=1,2,…,T,T是输入时间步的长度,是拼接操作,htfb表示时间步t的全局长期依赖,拼接每个时间步的隐藏层状态向量形成矩阵,其定义如下:其中,是文本序列的全局长期依赖矩阵,T是输入时间步的长度,kglo为单向长短期记忆网络隐藏层状态维度,H的每列表示文本序列对应位置处的全局长期依赖。S2.2、使用多尺度卷积神经网络提取局部语义特征。令为卷积运算的卷积核,其中,w为卷积核的宽度,d是卷积核的高度等于输入维度,kloc是卷积核的数量,并使kloc=128。对于位置i的单词,卷积操作可以表示为:其中,b表示偏置项,xi-w2+1:i+w2指词向量表示xi-w2+1,…,xi,…,xi+w2的拼接,*是卷积运算,f是非线性变换函数。是文本序列位置i处的kloc维局部w元特征向量。卷积核应用于文本序列的每个位置,使用零填充以生成与输入相同长度的特征映射:其中,是文本序列每个位置的局部语义特征矩阵。是使用相同大小的窗口进行卷积得到的局部语义特征矩阵。接下来使用多尺度卷积神经网络,使用不同大小的窗口进行卷积操作,假设r是窗口w的数量,可以得到r个卷积操作的结果,拼接起来得到局部语义特征矩阵步骤S3、构建一种局部与全局互注意力机制,使用步骤S2提取的全局长期依赖和每个位置的局部语义特征作为输入,用局部语义特征关注全局长期依赖产生局部指导的全局注意力权重,进行加权得到加权全局特征。用全局长期依赖关注局部语义特征产生全局指导的局部注意力权重,进行加权得到加权局部特征。S3.1、采用局部与全局互注意力机制,首先将步骤S2提取的全局长期依赖H和局部语义特征C作为输入,线性映射到较低维度k中,映射m次,m是局部与全局互注意力机制的子空间数目。将H和C映射到不同的子空间i:其中,是投影参数矩阵,i=1,2,…,m。S3.2、如图2所示,使用局部语义特征指导全局长期依赖,根据局部语义特征的每个位置计算全局长期依赖的全局注意力上下文,公式如下:其中,i=1,2,...,m,是第i个子空间的全局注意力上下文,Ai∈RT×T是全局注意力权重,接着拼接每一个子空间的全局注意力上下文,得到加权全局特征使用全局长期依赖指导局部语义特征,根据全局长期依赖的每个位置计算局部语义特征的局部注意力上下文,公式如下:其中,i=1,2,...,m,是第i个子空间的局部注意力上下文,Bi∈RT×T是局部注意力权重,接着拼接每一个子空间的局部注意力上下文,得到加权局部特征步骤S4、使用步骤S3中得到的加权全局特征和加权局部特征,随时间步加权池化,产生最终的全局表示向量和局部表示向量。加权全局特征的随时间步加权过程如下:其中,W1∈Rmk×mk,w2∈Rmk是权重矩阵,B1∈RT×mk,b2∈RT是偏置,α∈RT,是加权全局特征的第i个向量的得分,zH∈Rmk是最终的全局表示向量。类似的,加权局部特征的随时间步加权过程如下:其中,W3∈Rmk×mk,w4∈Rmk是权重矩阵,B3∈RT×mk,b4∈RT是偏置,β∈RT,是加权局部特征的第i个向量的得分,zC∈Rmk是最终的全局表示向量。步骤S5、拼接步骤S4得到的全局表示向量和局部表示向量,输入全连接层,再输入softmax层进行分类。将步骤S4得到的最终全局表示向量zH和最终局部表示向量zC作为输入,预测每个类别i的概率具体公式如下:其中,Wfc和Wsm是全连接层和softmax层的权重矩阵。bfc和bsm是偏置项。训练目标是减少交叉熵损失:其中,y是真实分布,是预测输出分布,是两个分布的交叉熵函数。综上所述,本发明可以并行地捕获全局长期依赖和局部语义特征,用于文本分类。本发明构建了局部与全局互注意力机制,一方面使用局部语义特征关注全局长期依赖,可以建模文本序列的组合语义,得到丰富的复杂语义特征。另一方面使用全局长期依赖关注局部语义特征,可以去除冗余或者不相关特征,从而得到更好的特征表示。上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

权利要求:1.一种基于局部与全局互注意力机制的文本分类方法,其特征在于,所述的文本分类方法包括以下步骤:S1、获取文本数据集,对数据进行预处理,把文本序列的每个单词映射为词向量;S2、使用双向长短期记忆网络来捕获文本序列的全局长期依赖,同时,使用多尺度卷积神经网络提取文本序列的局部语义特征;S3、构建一种局部与全局互注意力机制,使用步骤S2中提取的全局长期依赖和每个位置的局部语义特征作为输入,用局部语义特征关注全局长期依赖产生局部指导的全局注意力权重,进行加权得到加权全局特征,用全局长期依赖关注局部语义特征产生全局指导的局部注意力权重,进行加权得到加权局部特征;S4、使用上述的加权全局特征和加权局部特征,随时间步加权池化,产生最终的全局表示向量和局部表示向量;S5、拼接上述的全局表示向量和局部表示向量,输入全连接层,再输入softmax层进行分类。2.根据权利要求1所述的一种基于局部与全局互注意力机制的文本分类方法,其特征在于,所述的步骤S2中并行提取文本序列的全局长期依赖和局部语义特征,过程如下:S2.1、使用双向长短期记忆网络提取全局长期依赖,在时间步t,单个方向的隐藏层状态ht更新如下:ct=ft⊙ct-1+it⊙gtht=ot⊙tanhct其中,ht-1是时间步t-1的单个方向长短期记忆网络隐藏层状态,kglo为单向长短期记忆网络的隐藏层状态维度,xt是时间步t的输入,it、ft、ot分别是单向长短期记忆网络的输入门、遗忘门和输出门。gt是细胞临时状态,ct是细胞状态,σ、tanh是非线性激活函数,⊙是逐元素的乘法,M是由可训练参数组成的仿射变换函数;将文本序列以正向输入到长短期记忆网络中,并获得前向隐藏层状态将文本序列以反方向输入长短期记忆网络,更新后向隐藏层状态隐藏层状态的两个方向连接如下:其中,t=1,2,...,T,T是输入时间步的长度,是拼接操作,表示时间步t的全局长期依赖;拼接每个时间步的隐藏层状态向量形成矩阵,其定义如下:其中,是文本序列的全局长期依赖矩阵,T是输入时间步的长度,kglo为单向长短期记忆网络的隐藏层状态维度,H的每列表示文本序列对应位置处的全局长期依赖;S2.2、使用多尺度卷积神经网络提取局部语义特征,令为卷积运算的卷积核,其中,w为卷积核的宽度,d是卷积核的高度,其值等于输入维度,kloc是卷积核的数量,对于位置i的单词,卷积操作表示为:其中,b表示偏置项,xi-w2+1:i+w2指词向量表示xi-w2+1,...,xi,...,xi+w2的拼接,*是卷积运算,f是非线性变换函数,是文本序列位置i处的kloc维局部w元特征向量,卷积核应用于文本序列的每个位置,使用零填充以生成与输入相同长度的特征映射:其中,是文本序列每个位置的局部语义特征矩阵,是使用相同大小的窗口进行卷积得到的局部语义特征矩阵;接下来使用多尺度卷积神经网络,使用不同大小的窗口进行卷积操作,假设r是窗口w的数量,得到r个卷积操作的结果,拼接起来得到局部语义特征矩阵3.根据权利要求1所述的一种基于局部与全局互注意力机制的文本分类方法,其特征在于,所述的步骤S3中构建局部与全局互注意力机制的过程如下:S3.1、采用局部与全局互注意力机制,将步骤S2中提取的全局长期依赖H和局部语义特征C作为输入,线性映射到较低维度k中,映射m次,m是局部与全局互注意力机制的子空间数目,将H和C映射到不同的子空间i:其中,是投影参数矩阵,i=1,2,…,m;S3.2、使用局部语义特征指导全局长期依赖,根据局部语义特征的每个位置计算全局长期依赖的全局注意力上下文,公式如下:其中,i=1,2,...,m,是第i个子空间的全局注意力上下文,Ai∈RT×T是全局注意力权重,接着拼接每一个子空间的全局注意力上下文,得到加权全局特征使用全局长期依赖指导局部语义特征,根据全局长期依赖的每个位置计算局部语义特征的局部注意力上下文,公式如下:其中,i=1,2,...,m,是第i个子空间的局部注意力上下文,Bi∈RT×T是局部注意力权重,接着拼接每一个子空间的局部注意力上下文,得到加权局部特征4.根据权利要求1所述的一种基于局部与全局互注意力机制的文本分类方法,其特征在于,所述的步骤S4中随时间步加权池化的过程如下:将步骤S3中得到的加权全局特征和加权局部特征作为输入,加权全局特征的随时间步加权过程如下:其中,W1∈Rmk×mk,w2∈Rmk是权重矩阵,B1∈RT×mk,b2∈RT是偏置,α∈RT,是加权全局特征的第i个向量的得分,zH∈Rmk是最终的全局表示向量;加权局部特征的随时间步加权过程如下:其中,W3∈Rmk×mk,w4∈Rmk是权重矩阵,B3∈RT×mk,b4∈RT是偏置,β∈RT,是加权局部特征的第i个向量的得分,zC∈Rmk是最终的全局表示向量。5.根据权利要求1所述的一种基于局部与全局互注意力机制的文本分类方法,其特征在于,所述的步骤S5过程如下:将步骤S4得到的最终全局表示向量zH和最终局部表示向量zC作为输入,预测每个类别i的概率预测公式如下:其中,Wfc和Wsm是全连接层和softmax层的权重矩阵,bfc和bsm是偏置项;以减少交叉熵损失作为训练目标进行训练,其中,交叉熵损失的表达式如下:其中,y是真实分布,是预测输出分布,是两个分布的交叉熵函数。

百度查询: 华南理工大学 一种基于局部与全局互注意力机制的文本分类方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。