买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】基于ALBERT模型与RPA技术的主观题评分方法及系统_珠海金智维信息科技有限公司_202410025948.6 

申请/专利权人:珠海金智维信息科技有限公司

申请日:2024-01-08

公开(公告)日:2024-04-12

公开(公告)号:CN117540727B

主分类号:G06F40/216

分类号:G06F40/216;G06F40/30;G06N3/0455;G06Q10/10;G06Q50/20;G06F18/22

优先权:

专利状态码:有效-授权

法律状态:2024.04.12#授权;2024.03.01#实质审查的生效;2024.02.09#公开

摘要:本发明公开了基于ALBERT模型与RPA技术的主观题评分方法及系统,所述方法包括以下步骤:输入待评分的主观题学生答案,以及主观题参考答案;计算主观题学生答案、主观题参考答案之间的文本语义相似度;利用同义词词林计算主观题学生答案、主观题参考答案之间面向得分点的关键词相似度;综合主观题学生答案、主观题参考答案之间的文本语义相似度、关键词相似度,对主观题学生答案进行综合评分并输出。本发明采用先分句分词,然后提取特征,再进行相似度计算的方式,使得本发明的系统能够更加有效地提取文本特征,从而提高主观题评分效率和准确性。

主权项:1.基于ALBERT模型与RPA技术的主观题评分方法,其特征在于,包括以下步骤:S1、输入待评分的主观题学生答案,以及主观题参考答案;S2、使用ALBERT模型计算主观题学生答案、主观题参考答案之间的文本语义相似度;所述ALBERT模型是采用双向Transformer编译器结构的预训练语言模型,ALBERT模型则利用Transformer的Encoder层来提取输入序列的特征信息;Encoder层由Self-Attention层、Feed-Forward层和两个AddNorm层组成;在输入向量序列时,Transformer会对每个输入词的位置信息进行向量化,并与原词向量相加,以便让输入词带有位置信息;接下来,Encoder层通过Self-Attention层处理输入序列,计算词与词之间的关系矩阵,并利用加权计算的方式来更新输入序列的词向量;Encoder层利用Self-Attention层和Feed-Forward层对输入序列进行处理,并通过AddNorm层来保持信息流的连贯性;这种结构使得Transformer能够有效地提取输入序列的特征信息,从而为后续任务提供更准确的输入;所述ALBERT模型将输入的主观题学生答案、主观题参考答案进行编码,然后将编码后的结果输入到Softmax函数中: ;其中,为第个节点的输出值,为输出节点的个数,即分类的类别个数;为为最后一个节点的输出值;和为以自然常数e为底的指数函数;通过Softmax函数可以将多分类的输出值转换为范围在[0,1]和为1的概率分布,得到它们的内积表示相似度得分,表示两个文本之间的相似概率;同时,使用交叉熵损失函数对模型进行训练: ;其中,为第个节点的损失值,表示所有类别得分的指数和;通过使用交叉熵损失函数计算出每个类别的损失数,并将其用作分类的依据;S3、同时分别对主观题学生答案、主观题参考答案依次进行分词、提取关键词操作得到主观题学生答案、主观题参考答案的关键词序列,将关键词序列扩展为同义词词林,利用同义词词林计算主观题学生答案、主观题参考答案之间面向得分点的关键词相似度;所述关键词相似度是基于信息内容词语相似度进行计算,使用的函数如下: ;其中,MaxDIFF表示词林中词语之间的最大差异性,MinDIF则表示词林中词语之间的最小差异性,disc1,c2表示两个词语之间所在节点之间的距离;当两个词语位于不同大类下的叶子节点时,且它们的最近公共父节点为根节点时,它们之间具有最大差异性;而当两个词语位于同一叶子节点上时,它们之间具有最小差异性,用于计算词语相似度,为关键词相似度的计算提供支持;S4、综合主观题学生答案、主观题参考答案之间的文本语义相似度、关键词相似度,对主观题学生答案进行综合评分;所述综合评分使用以下函数进行综合评分: ;其中,Score为主观题学生答案;α和β为超参数,是由实验筛选出的最佳取值;TextSim是利用ALBERT模型得到的文本相似度,取值范围为0~1之间;KeySim是基于同义词词林计算得出的关键词相似度,取值范围也是0~1之间;MaxScore为题目的分值;S5、利用RPA技术实现自动化流程,将综合评分后的结果进行输出。

全文数据:

权利要求:

百度查询: 珠海金智维信息科技有限公司 基于ALBERT模型与RPA技术的主观题评分方法及系统

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。