买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】一种自适应错词和生词的印尼新闻文本分类方法_电子科技大学_201910250650.4 

申请/专利权人:电子科技大学

申请日:2019-03-29

公开(公告)日:2023-01-17

公开(公告)号:CN110008341B

主分类号:G06F16/35

分类号:G06F16/35;G06N3/04

优先权:

专利状态码:有效-授权

法律状态:2023.01.17#授权;2019.08.06#实质审查的生效;2019.07.12#公开

摘要:本发明提供了一种自适应错词和生词的印尼新闻文本分类方法,根据印尼新闻数据训练词到向量的神经网络模型,得到词到向量的映射字典;训练自适应错词和生词的词向量生成模型以及字到向量的映射字典;利用有标签的新闻语料训练文本分类模型;利用所述自适应错词和生词的词向量生成模型以及字到向量的映射字典,得到词向量,从而完成印尼新闻文本的分类。本发明通过上述方法解决了现有的深度学习方法预测时错词和生词对预测结果的干扰的问题,让拼写错误的词语的词向量接近正确的词向量,进而有效地提高了分类的准确率。

主权项:1.一种自适应错词和生词的印尼新闻文本分类方法,其特征在于,包括如下步骤:S1、根据印尼新闻数据训练词到向量的神经网络模型,得到词到向量的映射字典word2vector;S2、根据所述词到向量的映射字典word2vector,训练自适应错词和生词的词向量生成模型以及字到向量的映射字典char2vector;S3、根据所述自适应错词和生词的词向量生成模型以及字到向量的映射字典char2vector,利用有标签的新闻语料训练文本分类模型;所述步骤S3包括如下步骤:S301、根据所述自适应错词和生词的词向量生成模型以及字到向量的映射字典char2vector,将用于训练的新闻样本进行分词,得到单词序列{word1,word2...wordn},其中,n表示新闻的长度;S302、将所述单词序列中的每个单词分割成字符序列{char1,char2...chark},并通过字到向量的映射字典char2vector利用有标签的新闻语料,得到单词的矩阵表示{V1,V2...Vk},其中,Vk表示单词中第k个字符的字向量,k表示单词矩阵中的字符个数;S303、将每个单词的矩阵表示{V1,V2...Vk}输入到自适应错词和生词的词向量生成模型,输出单词的词向量,得到新闻的矩阵表示{x1,x2...xn},其中,xn表示新闻的矩阵中第n个词的词向量,n表示新闻的长度;S304、根据所述新闻的矩阵表示训练印尼新闻文本分类模型,从而完成文本分类模型的训练;S4、根据所述文本分类模型对待分类新闻进行分词,并利用所述自适应错词和生词的词向量生成模型以及字到向量的映射字典char2vector,得到词向量,从而完成印尼新闻文本的分类。

全文数据:一种自适应错词和生词的印尼新闻文本分类方法技术领域本发明属于文本分类技术领域,尤其涉及一种自适应错词和生词的印尼新闻文本分类方法。背景技术现有的文本分类方法主要有两种,一种是基于词袋模型的传统文本分类方法,比如朴素贝叶斯,决策树等,该方法的缺点是忽略了词语之间的顺序,因此在分类时不能很好地提取到文本的上下文特征;另一种是基于词向量的深度学习方法,比如卷积神经网络,循环神经网络等,该方法相比于传统的方法能取得更好的效果,但该方法的缺点是依赖词向量来表示一个词语,如果预测时遇到训练时未出现的生词,或者拼写错误的词就会干扰模型的预测。发明内容针对现有技术中的上述不足,本发明提供的一种自适应错词和生词的印尼新闻文本分类方法解决了现有的深度学习方法预测时错词和生词对预测结果的干扰的问题。为了达到以上目的,本发明采用的技术方案为:本方案提供一种自适应错词和生词的印尼新闻文本分类方法,包括如下步骤:一种自适应错词和生词的印尼新闻文本分类方法,其特征在于,包括如下步骤:S1、根据印尼新闻数据训练词到向量的神经网络模型,得到词到向量的映射字典word2vector;S2、根据所述词到向量的映射字典word2vector,训练自适应错词和生词的词向量生成模型以及字到向量的映射字典char2vector;S3、根据所述自适应错词和生词的词向量生成模型以及字到向量的映射字典char2vector,利用有标签的新闻语料训练文本分类模型;S4、根据所述文本分类模型对待分类新闻进行分词,并利用所述自适应错词和生词的词向量生成模型以及字到向量的映射字典char2vector,得到词向量,从而完成印尼新闻文本的分类。再进一步地,所述步骤S1具体为:根据印尼新闻数据利用印尼新闻语料以及连续词袋模型CBOW训练词向量,得到词到向量的映射字典word2vector,其中,所述词到向量的映射字典word2vector的表达式如下:word2vector={'word1':X1,'word2':X2...'wordm':Xm}其中,wordm表示词到向量的映射字典word2vector中的第m个单词,Xm表示单词wordm的词向量,m表示单词个数。再进一步地,所述步骤S2包括如下步骤:S201、随机初始化一个字到向量的映射字典char2vector={'char1':V1,'char2':V2...'charp':Vp'},其中,charp表示字到向量的映射字典char2vector中的第p个字符,其中,Vp表示字到向量的映射字典char2vector中第P个字符的字向量,p表示字到向量的映射字典char2vector中不同字符的数量;S202、将所述词到向量的映射字典word2vector中的每个单词分成字符序列,并通过字到向量的映射字典char2vector将字符编码成向量,得到每个单词的矩阵表示{V1,V2...Vk},其中,Vk表示字到向量的映射字典char2vector中第k个字符的字向量,k表示该单词的字符个数;S203、将所述每个单词的矩阵表示{V1,V2...Vk}作为输入,通过查找word2vector,得到所述单词的词向量x'作为标签,训练自适应错词和生词的词向量生成模型,从而完成对自适应错词和生词的词向量生成模型的训练。再进一步地,所述步骤S203中自适应错词和生词的词向量生成模型的表达式如下:Ht=tanhWhvt+WuHt-1+bh*sigmoidWa*Ht-1?lossA=x-x'2其中,Ht表示单词的第t个字符输入自适应错词和生词的词向量生成模型后隐藏层的输出值,Wh、Wu、bh、Wa分别表示自适应错词和生词的词向量生成模型的参数,模型在训练时参数不断更新,k表示单词的长度,x表示自适应错词和生词的词向量生成模型输出的词向量,x'表示查找word2vector字典得到的词向量,lossA表示自适应错词和生词的词向量生成模型输出的向量和真实向量之间的平方损失,tanh·表示双曲正切函数,sigmoid·表示S型生长曲线函数,t表示自适应错词和生词的词向量生成模型中单词的字符数,Vt表示第t个字符的字向量。再进一步地,所述步骤S3包括如下步骤:S301、根据所述自适应错词和生词的词向量生成模型以及字到向量的映射字典char2vector,将用于训练的新闻样本进行分词,得到单词序列{word1,word2...wordn},其中,n表示新闻的长度;S302、将所述单词序列中的每个单词分割成字符序列{char1,char2...chark},并通过字到向量的映射字典char2vector利用有标签的新闻语料,得到单词的矩阵表示{V1,V2...Vk},其中,Vk表示单词中第k个字符的字向量,k表示单词矩阵中的字符个数;S303、将每个单词的矩阵表示{V1,V2...Vk}输入到自适应错词和生词的词向量生成模型,输出单词的词向量,得到新闻的矩阵表示{x1,x2...xn},其中,xn表示新闻的矩阵中第n个词的词向量,n表示新闻的长度。S304、根据所述新闻的矩阵表示训练印尼新闻文本分类模型,从而完成文本分类模型的训练。再进一步地,所述步骤S304中文本分类模型的表达式如下:lossB=-logPcc*其中,xi表示新闻中第i个词的词向量,n表示新闻的长度,W'、W、b'、b分别是分类模型中最后两层的参数,且在训练的时候不断更新,c*表示新闻的标签,Pc表示分类模型预测的新闻属于每一类的概率,softmax·表示归一化指数函数,Pcc*表示模型预测新闻为类别c*的概率,lossB表示分类模型预测值和真实标签之间的交叉熵损失。再进一步地,所述步骤S4具体为:S401、将每个单词的矩阵表示{V1,V2...Vk}输入到自适应错词和生词的词向量生成模型,输出单词的词向量,得到新闻的矩阵表示{x1,x2...xm},其中,xm表示新闻中第m个词的词向量,m表示该新闻的单词个数;S402、根据所述新闻的矩阵表示{x1,x2...xm}输入到步骤S304的文本分类模型中,得到每一个类别的概率,选出概率最大的新闻类别,从而完成印尼新闻文本的分类。再进一步地,所述步骤S402中选出概率最大的新闻类别的表达式如下:C=argmaxPc其中,xi表示新闻中第i个词的词向量,n表示新闻的长度,W'、W、b'以及b分别是分类模型最后两层的参数,且在训练的时候不断更新,Pc表示分类模型预测的新闻属于每一类的概率,C表示模型预测的概率最大的一类,softmax·表示归一化指数函数,argmax·表示最大值自变量点集函数。本发明的有益效果:本发明提供了一种自适应错词和生词的印尼新闻文本分类方法,根据印尼新闻数据训练词到向量的神经网络模型,得到词到向量的映射字典word2vector;训练自适应错词和生词的词向量生成模型以及字到向量的映射字典char2vector;利用有标签的新闻语料训练文本分类模型;利用所述自适应错词和生词的词向量生成模型以及字到向量的映射字典char2vector,得到词向量,从而完成印尼新闻文本的分类。本发明通过上述方法解决了现有的深度学习方法预测时错词和生词对预测结果的干扰的问题,让拼写错误的词语的词向量接近正确的词向量,进而有效地提高了分类的准确率。附图说明图1为本发明的方法流程图。具体实施方式下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。实施例如图1所示,本发明公开了一种自适应错词和生词的印尼新闻文本分类方法,其实现方法如下:S1、根据印尼新闻数据训练词到向量的神经网络模型,得到词到向量的映射字典word2vector,其具体为:根据印尼新闻数据利用印尼新闻语料以及连续词袋模型CBOW训练词向量,得到词到向量的映射字典word2vector,其中,所述词到向量的映射字典word2vector的表达式如下:word2vector={'word1':X1,'word2':X2...'wordm':Xm}其中,wordm表示词到向量的映射字典word2vector中的第m个单词,Xm表示单词wordm的词向量,m表示单词个数,本实施例中,部份单词的词向量如下:{‘raga’:['0.4552','0.4962','0.4928','0.0773','-0.970'...]},{‘besok’:['0.7360','-0.238','0.1156','0.9753','0.1345'...']},{‘marshanda’:['0.4417','0.3370','-0.774','-0.801','0.7968'...]},…};S2、根据所述词到向量的映射字典word2vector,训练自适应错词和生词的词向量生成模型AVME以及字到向量的映射字典char2vector,包括如下步骤:S201、随机初始化一个字到向量的映射字典char2vector={'char1':V1,'char2':V2...'charp':Vp'},其中,charp表示字符到向量的字典char2vector中的第p个字符,其中,Vp表示字到向量的映射字典char2vector中第P个字符的字向量,p表示字到向量的映射字典char2vector中不同字符的数量,本实施例中,部份字符的字向量如下:{‘a’:['-0.328','-0.477','0.4409','0.9935','-0.586'...],‘b’:['0.4793','0.0744','0.9731','0.0574','0.8759'...]…};S202、将所述词到向量的映射字典word2vector中的每个单词分成字符序列,并通过字到向量的映射字典char2vector将字符编码成向量,得到每个单词的矩阵表示{V1,V2...Vk},其中,Vk表示字到向量的映射字典char2vector中第k个字符的字向量,k表示该单词的字符个数,本实施例中,单词raga分割成[’r’,’a’,’g’,’a’],其中’r’对应的字向量为['0.5389','-0.584','-0.467','-0.052','0.5586'...],’a’对应的字向量为['-0.328','-0.477','0.4409','0.9935','-0.586'...],’g’对应的字向量为['-0.140','-0.975','-0.754','0.8447','0.3282'...],则raga的矩阵表示为:[['0.5389','-0.584','-0.467','-0.052','0.5586'...]['-0.328','-0.477','0.4409','0.9935','-0.586'...]['-0.140','-0.975','-0.754','0.8447','0.3282'...]['-0.328','-0.477','0.4409','0.9935','-0.586'...]];S203、将所述每个单词的矩阵表示{V1,V2...Vk}作为输入,通过查找word2vector,得到所述单词的词向量x'作为标签,训练自适应错词和生词的词向量生成模型,从而完成对自适应错词和生词的词向量生成模型的训练,其中,所述自适应错词和生词的词向量生成模型的表达式如下:Ht=tanhWhvt+WuHt-1+bh*sigmoidWa*Ht-1?lossA=x-x'2其中,Ht表示单词的第t个字符输入自适应错词和生词的词向量生成模型后隐藏层的输出值,Wh、Wu、bh、Wa分别表示模型的参数,模型在训练时参数不断更新,k表示单词的长度,x表示自适应错词和生词的词向量生成模型输出的词向量,x'表示查找word2vector字典得到的词向量,lossA表示自适应错词和生词的词向量生成模型输出的向量和真实向量之间的平方损失,tanh·表示双曲正切函数,sigmoid·表示S型生长曲线函数,t表示单词的字符数,Vt表示第t个字符的字向量,本实施例中,将‘raga’的矩阵表示输入自适应错词和生词的词向量生成模型的中,输出词向量x=['-0.502','-0.819','0.9042','0.6500','-0.548'...],通过查找word2vector得到‘raga’的词向量x'=['0.4552','0.4962','0.9042','0.0773','-0.970'...],故求得损失lossA=-0.502-0.45522+-0.819-0.49622+0.9042-0.90422+0.6500+0.5482…,在不断优化损失之后,lossA趋近于0,自适应错词和生词的词向量生成模型的模型输出的单词‘raga’的词向量x=['0.4551','0.4962','0.4928','0.0774','-0.970'...];S3、根据所述自适应错词和生词的词向量生成模型以及字到向量的映射字典char2vector,利用有标签的新闻语料训练文本分类模型,包括如下步骤:S301、根据所述自适应错词和生词的词向量生成模型以及字到向量的映射字典char2vector,将用于训练的新闻样本进行分词,得到单词序列{word1,word2...wordn},其中,n表示新闻的长度;S302、将所述单词序列中的每个单词分割成字符序列{char1,char2...chark},并通过字到向量的映射字典char2vector利用有标签的新闻语料,得到单词的矩阵表示{V1,V2...Vk},其中,Vk表示单词中第k个字符的字向量,k表示单词矩阵中的字符个数,本实施例中,将单词‘marshanda’分割成字符序列['m','a','r','s','h','a','n','d','a'],通过查找char2vector字典得到单词‘marshanda’的矩阵表示:[['-0.009','0.2395','-0.797','0.3049','0.0452'...]['0.5389','-0.584','-0.467','-0.052','0.5586'...]['0.9450','0.5651','-0.500','0.7767','-0.975'...]['0.1508','-0.215','0.7573','0.8700','0.2676'...]['-0.328','-0.477','0.4409','0.9935','-0.586'...]…];S303、将每个单词的矩阵表示{V1,V2...Vk}输入到自适应错词和生词的词向量生成模型,输出单词的词向量,得到新闻的矩阵表示{x1,x2...xn},其中,xn表示新闻的矩阵中第n个词的词向量,n表示新闻的长度,本实施例中,将‘marshanda’的矩阵表示输入自适应错词和生词的词向量生成模型中,得到‘marshanda’的词向量['0.4417','0.3370','-0.774','-0.801','0.7968'...],同理也得到其他单词的词向量,从而得到新闻的矩阵表示:[['0.4417','0.3370','-0.774','-0.801','0.7968'...]['0.2718','0.0703','0.8658','0.8663','0.0322'...]…]。S304、根据所述新闻的矩阵表示训练印尼新闻文本分类模型,从而完成文本分类模型的训练,其中,所述文本分类模型的表达式如下:lossB=-logPcc*其中,xi表示新闻中第i个词的词向量,n表示新闻的长度,W'、W、b'以及b分别是分类模型最后两层的参数,且在训练的时候不断更新,c*表示新闻的标签,Pc为分类模型预测的该新闻属于每一类的概率,softmax·表示归一化指数函数,Pcc*表示模型预测新闻为类别c*的概率,lossB表示分类模型预测值和真实标签之间的交叉熵损失;本实施例中,若分类任务的新闻类别分别有0-体育,1-政治,2-娱乐,3-经济,以为政治新闻为例,即c*=1,将该新闻的矩阵表示输入分类模型中,得到该新闻属于各类的概率分别为Pc=[0.12,0.13,0.5,0.25],所以Pcc*=0.13,lossB=-log0.13,在不断优化损失之后,lossB趋近于0,最后输出的该新闻属于每一类的概率分别为Pc=[0.013,0.98,0.005,0.002];S4、根据所述文本分类模型对待分类新闻进行分词,并利用所述自适应错词和生词的词向量生成模型以及字到向量的映射字典char2vector,得到词向量,从而完成印尼新闻文本的分类,其具体为:S401、将每个单词的矩阵表示{V1,V2...Vk}输入到自适应错词和生词的词向量生成模型,输出单词的词向量,得到新闻的矩阵表示{x1,x2...xm},其中,xm表示新闻中第m个词的词向量,m表示该新闻的单词个数;S402、根据所述新闻的矩阵表示{x1,x2...xm}输入到步骤S304的文本分类模型中,得到每一个类别的概率,选出概率最大的新闻类别,从而完成印尼新闻文本的分类,其中,选出概率最大的新闻类别的表达式如下:C=argmaxPc其中,xi表示新闻中第i个词的词向量,n表示新闻的长度,W'、W、b'以及b分别是分类模型最后两层的参数,且在训练的时候不断更新,Pc表示分类模型预测的该新闻属于每一类的概率,C表示模型预测的概率最大的一类,softmax·表示归一化指数函数,argmax·表示最大值自变量点集函数。本发明通过上述方法解决了现有的深度学习方法预测时错词和生词对预测结果的干扰的问题,让拼写错误的词语的词向量接近正确的词向量,进而有效地提高了分类的准确率。

权利要求:1.一种自适应错词和生词的印尼新闻文本分类方法,其特征在于,包括如下步骤:S1、根据印尼新闻数据训练词到向量的神经网络模型,得到词到向量的映射字典word2vector;S2、根据所述词到向量的映射字典word2vector,训练自适应错词和生词的词向量生成模型以及字到向量的映射字典char2vector;S3、根据所述自适应错词和生词的词向量生成模型以及字到向量的映射字典char2vector,利用有标签的新闻语料训练文本分类模型;S4、根据所述文本分类模型对待分类新闻进行分词,并利用所述自适应错词和生词的词向量生成模型以及字到向量的映射字典char2vector,得到词向量,从而完成印尼新闻文本的分类。2.根据权利要求1所述的自适应错词和生词的印尼新闻文本分类方法,其特征在于,所述步骤S1具体为:根据印尼新闻数据利用印尼新闻语料以及连续词袋模型CBOW训练词向量,得到词到向量的映射字典word2vector,其中,所述词到向量的映射字典word2vector的表达式如下:word2vector={'word1':X1,'word2':X2...'wordm':Xm}其中,wordm表示词到向量的映射字典word2vector中的第m个单词,Xm表示单词wordm的词向量,m表示单词个数。3.根据权利要求1所述的自适应错词和生词的印尼新闻文本分类方法,其特征在于,所述步骤S2包括如下步骤:S201、随机初始化一个字到向量的映射字典char2vector={'char1':V1,'char2':V2...'charp':Vp'},其中,charp表示字到向量的映射字典char2vector中的第p个字符,其中,Vp表示字到向量的映射字典char2vector中第P个字符的字向量,p表示字到向量的映射字典char2vector中不同字符的数量;S202、将所述词到向量的映射字典word2vector中的每个单词分成字符序列,并通过字到向量的映射字典char2vector将字符编码成向量,得到每个单词的矩阵表示{V1,V2...Vk},其中,Vk表示字到向量的映射字典char2vector中第k个字符的字向量,k表示该单词的字符个数;S203、将所述每个单词的矩阵表示{V1,V2...Vk}作为输入,通过查找word2vector,得到所述单词的词向量x'作为标签,训练自适应错词和生词的词向量生成模型,从而完成对自适应错词和生词的词向量生成模型的训练。4.根据权利要求3所述的自适应错词和生词的印尼新闻文本分类方法,其特征在于,所述步骤S203中自适应错词和生词的词向量生成模型的表达式如下:Ht=tanhWhvt+WuHt-1+bh*sigmoidWa*Ht-1?lossA=x-x'2其中,Ht表示单词的第t个字符输入自适应错词和生词的词向量生成模型后隐藏层的输出值,Wh、Wu、bh、Wa分别表示自适应错词和生词的词向量生成模型的参数,模型在训练时参数不断更新,k表示单词的长度,x表示自适应错词和生词的词向量生成模型输出的词向量,x'表示查找word2vector字典得到的词向量,lossA表示自适应错词和生词的词向量生成模型输出的向量和真实向量之间的平方损失,tanh·表示双曲正切函数,sigmoid·表示S型生长曲线函数,t表示自适应错词和生词的词向量生成模型中单词的字符数,Vt表示第t个字符的字向量。5.根据权利要求1所述的自适应错词和生词的印尼新闻文本分类方法,其特征在于,所述步骤S3包括如下步骤:S301、根据所述自适应错词和生词的词向量生成模型以及字到向量的映射字典char2vector,将用于训练的新闻样本进行分词,得到单词序列{word1,word2...wordn},其中,n表示新闻的长度;S302、将所述单词序列中的每个单词分割成字符序列{char1,char2...chark},并通过字到向量的映射字典char2vector利用有标签的新闻语料,得到单词的矩阵表示{V1,V2...Vk},其中,Vk表示单词中第k个字符的字向量,k表示单词矩阵中的字符个数;S303、将每个单词的矩阵表示{V1,V2...Vk}输入到自适应错词和生词的词向量生成模型,输出单词的词向量,得到新闻的矩阵表示{x1,x2...xn},其中,xn表示新闻的矩阵中第n个词的词向量,n表示新闻的长度。S304、根据所述新闻的矩阵表示训练印尼新闻文本分类模型,从而完成文本分类模型的训练。6.根据权利要求5所述的自适应错词和生词的印尼新闻文本分类方法,其特征在于,所述步骤S304中文本分类模型的表达式如下:lossB=-logPcc*其中,xi表示新闻中第i个词的词向量,n表示新闻的长度,W'、W、b'、b分别是分类模型中最后两层的参数,且在训练的时候不断更新,c*表示新闻的标签,Pc表示分类模型预测的新闻属于每一类的概率,softmax·表示归一化指数函数,Pcc*表示模型预测新闻为类别c*的概率,lossB表示分类模型预测值和真实标签之间的交叉熵损失。7.根据权利要求5所述的自适应错词和生词的印尼新闻文本分类方法,其特征在于,所述步骤S4具体为:S401、将每个单词的矩阵表示{V1,V2...Vk}输入到自适应错词和生词的词向量生成模型,输出单词的词向量,得到新闻的矩阵表示{x1,x2...xm},其中,xm表示新闻中第m个词的词向量,m表示该新闻的单词个数;S402、根据所述新闻的矩阵表示{x1,x2...xm}输入到步骤S304的文本分类模型中,得到每一个类别的概率,选出概率最大的新闻类别,从而完成印尼新闻文本的分类。8.根据权利要求7所述的自适应错词和生词的印尼新闻文本分类方法,其特征在于,所述步骤S402中选出概率最大的新闻类别的表达式如下:C=argmaxPc其中,xi表示新闻中第i个词的词向量,n表示新闻的长度,W'、W、b'以及b分别是分类模型最后两层的参数,且在训练的时候不断更新,Pc表示分类模型预测的新闻属于每一类的概率,C表示模型预测的概率最大的一类,softmax·表示归一化指数函数,argmax·表示最大值自变量点集函数。

百度查询: 电子科技大学 一种自适应错词和生词的印尼新闻文本分类方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。