买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】一种基于关注度和专注度的学生听课水平综合评估方法_北京师范大学珠海分校_201910234820.X 

申请/专利权人:北京师范大学珠海分校

申请日:2019-03-26

公开(公告)日:2023-05-26

公开(公告)号:CN110009210B

主分类号:G06Q10/0639

分类号:G06Q10/0639;G06Q50/20;G06V40/16;G06V10/82;G06N3/0464;G06N3/084

优先权:

专利状态码:有效-授权

法律状态:2023.05.26#授权;2019.08.06#实质审查的生效;2019.07.12#公开

摘要:本发明公开了一种基于关注度和专注度的学生听课水平综合评估方法,包括以下步骤:S1:采集当前课时课堂教学视频数据,获取讲课过程中学生行为信息;S2:根据学生行为信息,计算学生关注度水平和专注度水平;S3:基于学生关注度和专注度得到当前课时学生听课水平。本发明在关注度与专注度指标基础之上,构建一种课堂水平的评估方法,克服了不同学校对于教学水平标准的差异,有针对性评估课堂教学质量。

主权项:1.一种基于关注度和专注度的学生听课水平综合评估方法,其特征在于,包括以下步骤:S1:采集当前课时课堂教学视频数据,获取讲课过程中学生行为信息;S2:利用步骤S1中的学生行为信息,计算学生关注度水平和专注度水平;S3:利用步骤S2中的得到学生关注度和专注度得到当前课时学生听课水平;步骤S2中根据学生行为信息,计算学生关注度水平和专注度水平,包括以下步骤:S2.1:计算关注度水平;关注度水平LOA按下式计算:LOA=w1×F+w2×P其中,F和P的计算公式如下: all_sitting=fronts+middles+backs上述式中,F表示学生抬头水平,P表示学生座位分布水平;w1为抬头水平在关注度水平中的权重,w2为学生座位分布水平在关注度水平中的权重;N表示对该课堂采集的照片总数;face_peri表示第i张图片检测的抬头人数的期望;num_facei表示第i张图片内抬头的人数;face_totali表示第i张图片中所包含的实际人数;学生座位分布指的是以从教室的第一排至学生所占用座位的最后一排为听课区域,将课堂座位划分成前、中、后三个子区域;fronts表示前排听课人数,middles表示中排听课人数,backs表示后排听课人数;all_sitting表示课堂的学生总数;V1是前排听课人数在学生座位分布水平的权重,V2是中排听课人数在学生座位分布水平的权重,V3是后排听课人数在学生座位分布水平的权重;S2.2:计算专注度水平-前排水平;专注度水平-前排水平LOCF按下式计算:LOCF=w3×FF+w4×FR其中FF和FR的计算公式如下: frontface_peri=num_frontfaceifrontface_totaliFR=frontsfront_seats上述式中,FF表示前排抬头水平,FR表示前排座位占用率;w3为前排抬头水平在专注度水平-前排水平中的权重,w4为前排座位占用率在专注度水平-前排水平中的权重,w3=w1,w4=w2;frontface_peri表示第i张图片中的前排抬头水平,num_frontfacei表示第i张图片中前排抬头人数,frontface_totali表示第i张图片中所包含的前排人数;fronts表示前排听课人数,front_seats表示前排座位数量;S2.3:计算学生课堂专注度水平-整体水平;学生课堂专注度水平-整体水平LOC按下式计算:LOC=gLOCF|attitude式中,attitude有两种状态值,attitude=1代表学生听课态度积极,attitude=0代表学生听课态度消极,因此有如下两种公式: 上述式中,B为基本分值,以保证最后算出的LOC为正值;A1为学生听课态度积极状态下,LOCF反映到整体的转换系数;A2为学生听课态度消极状态下,LOCF反映到整体的转换系数。

全文数据:一种基于关注度和专注度的学生听课水平综合评估方法技术领域本发明涉及教育信息化领域,更具体地,涉及一种基于关注度和专注度的学生听课水平综合评估方法。背景技术随着高校招生数量的增加和教育改革的发展,高等教育的质量问题成为社会和公众关注的热点。在我国,高等院校仍以课堂教学作为其教学的主要形式,而课堂教学质量的优劣对人才培养的质量有着直接的重要影响。质量是高等教育的核心,在高校教学质量的评估中,对课堂学习质量的评估是其中较为重要的一个环节。传统的课堂监测多为授课老师自行控制,上课的同时仍管理纪律和学生的听课关注度,这在一定程度上分散了教师授课的精力,影响课堂授课质量。有些学校会有教职人员抽查记录课堂情况,但往往花费精力而不得真实全面的状况,总体来说收效甚微。随着计算机视觉技术近年来的快速发展,人脸检测和识别的研究也掀起了新的高潮,利用OpenCV,VisualStudio,MATLAB等工具将人脸识别技术与课堂教学监控系统的需求相结合,可以获取大量记录学生课堂状态的信息。虽然国内高校已经可以实时监控课堂教学,但是大多高校尚未做到从收集到的信息中分析得到有效信息完善课堂质量的评估。虽然在课堂学习质量的评估上国内已经有了很多的相关研究,但还是存在着以下几个局限性:1没有清晰定义关注度和专注度的分界线,将两者并为一谈;2忽略座位分布情况对课堂关注度的影响;3忽略学生座前排的原因导向。发明内容本发明提供一种基于关注度和专注度的学生听课水平综合评估方法,对各指标数据进行分析,为高校建立了评价学生课堂教学质量的另一种模式——从关注度和专注度两个视角共同对学生听课水平展开评估,以便根据课堂质量的计算结果针对性地对教学进行优化管理。为解决上述技术问题,本发明的技术方案如下:一种基于关注度和专注度的学生听课水平综合评估方法,其特征在于,包括以下步骤:S1:采集当前课时课堂教学视频数据,获取讲课过程中学生行为信息;S2:根据学生行为信息,计算学生关注度水平和专注度水平;S3:基于学生关注度和专注度得到当前课时学生听课水平。优选地,步骤S1中采集当前课时课堂教学视频数据,获取讲课过程中学生行为信息,包括以下步骤:S1.1:采集当前课时课堂教学视频,对其设定帧间隔进行图像抽取,将读取的帧存储为图片并按提取顺序存储为图片集;S1.2:将图片集中的图片依次输入到预训练的卷积神经网络,检测人脸,标记人脸边界框,捕捉人脸特征,进行标注,与提前收集的人脸数据库集进行匹配;S1.3:将不同时间所识别的同一位置的有效人脸按时间提取分别储存,将每个时间所识别出的人数进行统计,获取学生行为信息。优选地,学生行为信息包括瞬时全班抬头人数、瞬时前排抬头人数、全班总人数和前排座位量,将每个时间点所识别出的人数进行统计,取其最大值即为最接近全班人数的值。通过设置参数将学生与摄像头的距离进行限制取一定范围再利用函数即可对前排总人数以及前排座位量进行统计。优选地,步骤S1.2中预训练的卷积神经网络的构建,包括以下步骤:S1.2.1:提前收集人脸数据库图像集;S1.2.2:对人脸数据集预处理,并将人脸数据库集划分为训练集、验证集和测试集,并保证三个数据集之间的比例合适;S1.2.3:将人脸数据作为输入层输入到卷积网络进行训练,卷积网络由多个卷积层、池化层、全连接层连接,后面运用softmax算法对不同人脸进行标注,Softmax损失函数来计算训练的结果与实际值之间的误差,该误差越小,表明网络的分类效果越好,通过反向传播算法不断优化网络参数,减小损失函数值,直到其收敛,即可得到最终的卷积神经网络参数,得到训练好的卷积神经网络。优选地,步骤S2中根据学生行为信息,计算学生关注度水平和专注度水平,包括以下步骤:S2.1:计算关注度水平;学生课堂关注度指的是学生集中关注度在课堂上的外在体现,主要由两个部分构成,分别是学生抬头水平和学生座位分布水平;关注度水平LOA按下式计算:LOA=w1×F+w2×P其中,F和P的计算公式如下:上述式中,F表示学生抬头水平,P表示学生座位分布水平;w1为抬头水平在关注度水平中的权重,w2为学生座位分布水平在关注度水平中的权重;N表示对该课堂采集的照片总数;face_peri表示第i张图片检测的抬头人数的期望;num_facei表示第i张图片内抬头的人数;face_totali表示第i张图片中所包含的实际人数;将学生座位分布指的是以从教室的第一排至学生所占用座位的最后一排为听课区域,将课堂座位划分成前、中、后三个子区域;fronts表示前排听课人数,middles表示中排听课人数,backs表示后排听课人数;all_sitting表示课堂的学生总数;V1是前排听课人数在学生座位分布水平的权重,V2是中排听课人数在学生座位分布水平的权重,V3是后排听课人数在学生座位分布水平的权重;S2.2:计算专注度水平-前排水平;与专注度的研究不同,学生课堂专注度水平需要考虑到一些定性的因素,如听课时的表情和姿势合称为态度,为了便于图像信息捕捉,把研究对象设为前排听课的学生,专注度水平LevelofConcentration,简称LOC指的是基于听课兴趣水平的课堂关注度水平,前排学生的课堂专注度水平,可用LOCF表示,该评估指标主要由前排抬头水平、前排座位占用率以及前排听课态度三个部分构成,其中前两个部分可以直接统计计算,而前排听课态度则属于定性指标。将前排学生听课态度分为两类,积极attitude标记为1和消极attitude标记为0,并在不同的态度标记下使用不同的公式计算。专注度水平-前排水平LOCF按下式计算:LOCF=w3×FF+w4×FR其中FF和FR的计算公式如下:frontface_peri=num_frontfaceifrontface_totaliFR=frontsfront_seats上述式中,FF表示前排抬头水平,FR表示前排座位占用率;w3为前排抬头水平在专注度水平-前排水平中的权重,w4为前排座位占用率在专注度水平-前排水平中的权重,w3=w1,w4=w2;frontface_peri表示第i张图片中的前排抬头水平,num_frontfacei表示第i张图片中前排抬头人数,frontface_totali表示第i张图片中所包含的前排人数;fronts表示前排人数,front_seats表示前排座位数量;S2.3:计算学生课堂专注度水平-整体水平;学生课堂专注度水平-整体水平LOC按下式计算:LOC=gLOCF|attitude式中,attitude有两种状态值,attitude=1代表学生听课态度积极,attitude=0代表学生听课态度消极,因此有如下两种公式:上述式中,B为基本分值,以保证最后算出的LOC为正值;A1为学生听课态度积极状态下,LOCF反映到整体的转换系数;A2为学生听课态度消极状态下,LOCF反映到整体的转换系数。优选地,步骤S3中基于学生关注度和专注度得到当前课时学生听课水平,包括以下步骤:S3.1:基于关注度和专注度的学生听课水平W,按下式计算:WjLOA,LOC=Q·XTQ=[LOA,LOC],XT=[x1,x2]T上述式中,WjLOA,LOC为第j次课时的学生听课水平,Q为关注度与专注度的矩阵,XT为LOA和LOC反映在听课水平上的权值转置矩阵。优选地,还包括步骤S4:根据全部课时的学生听课水平得到课堂质量综合评估。优选地,步骤S4中根据全部课时的学生听课水平得到课堂质量综合评估TCQ,按下式公式计算:TCQ=γD2·Zα2·Σα+D+22·exp[-0.5Tr[Z·Σ-1]+γμ-VTΣ-1μ-VγD2]+b上述式中,γ,α为参数;Z为C×D维矩阵,D为学期划分模块数量,C为总课时数量均分到不同学期划分模块的课时数量;V为对应不同学期模块的D×1维的权重矩阵;Σ为C×D维的协方差矩阵;Tr[Z·Σ-1]表示矩阵Z·Σ-1的秩;μ为D×1维的权重均值矩阵;b为常数。与现有技术相比,本发明技术方案的有益效果是:1利用了课堂座位分布和学生上课抬头率指标进行分析,克服了他人研究在课堂关注度与专注度界限模糊不清、忽略座位分布情况对课堂专注度的影响、忽略学生前排的原因导向等局限性;2在关注度与专注度指标基础之上,构建一种课堂水平的评估方法,克服了不同学校对于教学水平标准的差异,有针对性评估课堂教学质量;3以抓取普通高校课堂教学视频为突破口,提供了基于学生课堂关注度与专注度的学生听课水平评估方法,促使教学管理决策更理性、准确和针对性;4通过课堂的听课水平的计算结果,可以对课程的课堂质量进行学期的打分,可用于课程之间的比较排名,便于对不同质量水平的课程的管理改进。附图说明图1为一种基于关注度和专注度的学生听课水平综合评估方法流程图。图2为实施例提供的统计学生行为信息的处理流程图。图3为实施例中学生听课水平因素传递性结点图。图4为实施例中学生听课水平差值和座位分布水平差值对比定参图。图5实施例中关注度-专注度水平矩阵图。具体实施方式附图仅用于示例性说明,不能理解为对本专利的限制;为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。下面结合附图和实施例对本发明的技术方案做进一步的说明。实施例1本实施例提供一种基于关注度和专注度的学生听课水平综合评估方法,如图1,包括以下步骤:S1:采集当前课时课堂教学视频数据,获取讲课过程中学生行为信息;S2:根据学生行为信息,计算学生关注度水平和专注度水平;S3:基于学生关注度和专注度得到当前课时学生听课水平。步骤S1中采集当前课时课堂教学视频数据,获取讲课过程中学生行为信息,如图2,包括以下步骤:S1.1:采集当前课时课堂教学视频,对其设定帧间隔进行图像抽取,将读取的帧存储为图片并按提取顺序存储为图片集;S1.2:将图片集中的图片依次输入到预训练的卷积神经网络,检测人脸,标记人脸边界框,捕捉人脸特征,进行标注,与提前收集的人脸数据库集进行匹配;S1.3:将不同时间所识别的同一位置的有效人脸按时间提取分别储存,将每个时间所识别出的人数进行统计,获取学生行为信息。学生行为信息包括瞬时全班抬头人数、瞬时前排抬头人数、全班总人数和前排座位量。步骤S1.2中预训练的卷积神经网络的构建,包括以下步骤:S1.2.1:提前收集人脸数据库图像集;S1.2.2:对人脸数据集预处理,并将人脸数据库集集划分为训练集、验证集和测试集实验中所取比例为8:1:1;S1.2.3:将人脸数据作为输入层输入到卷积网络进行训练,卷积网络由多个卷积层、池化层、全连接层连接,后面运用softmax算法对不同人脸进行标注,softmax损失函数来计算训练的结果与实际值之间的误差,该误差越小,表明网络的分类效果越好,通过反向传播算法不断优化网络参数,减小损失函数值,直到其收敛,即可得到最终的卷积神经网络参数,得到训练好的卷积神经网络。步骤S2中根据学生行为信息,计算学生关注度水平和专注度水平:计算第一张图的抬头率face_per1=num_faceface_total=0.31667;计算第i张图片的抬头率face_peri=num_faceface_total;得到所采集的每张图片的抬头率后,计算第一次课的整体抬头水平F1,根据照片内呈现的学生听课座位分布情况,计算第一次课的学生座位分布水平P,最终计算本次课程的学生课堂关注度水平LOA1,LOA1=w1×F1+w2×P1=0.232659;将其余第2~16次课时的数据按照第1次课时的计算过程计算处理,得到课堂16次课时的LOA的数值。其中,考虑到学生选择座位是受到此前课堂质量的影响的尤其是前一次课,如图3,是之前课堂质量作用在学生听课兴趣之上的结果,在作为本次课堂的学生专注度评估时,应适当削减其影响,而更强调当下的抬头水平,也就是F的影响。因此,在设置权值上有w1>w2。计算学生课堂专注度前排水平LOCF的值:计算第一张图的前排抬头率:frontface_per1=num_frontfacefrontface_total=0.47619;计算第i张图片的抬头率:frontface_peri=num_frontfacefrontface_total;得到所采集的每张图片的抬头率后,计算第一次课的前排抬头水平FF1:根据照片内呈现的学生听课座位分布情况以及前排座位数量,计算第一次课的前排座位占用率FR1,FR1=frontsfront_seats=0.538462;最终计算本次课程的学生课堂专注度的前排水平LOCF1,LOCF1=w1×FF+w2×FR=0.483761;将其余第2~16次课时的数据按照第1次课时的计算过程计算处理,得到课堂16次课时的LOCF的数值。根据2-3-1中的公式LOC=gLOCF|attitude,计算第一次课程学生课堂专注度水平,由于第一次课的学生听课状态被判定为积极的,即attitude=1,因此使用公式:于是有第一次课时的学生课堂专注度水平为LOC1=0.806496;将其余第2~16次课时的数据按照第1次课时的计算过程计算处理,根据attitude的值不同,选择用不同的公式,得到课堂16次课时的LOC的数值。计算学生听课水平:计算第一次课程的学生听课水平评分有:W1LOA,LOC=Q1·XT=[LOA1,LOC1]·[x1,x2]T=0.519577;将其余第2~16次课时的数据按照第1次课时的计算过程计算处理,得到课堂16次课时的W的数值。至此,该课程的16次课时的学生听课水平都计算出来了,具体16次计算结果参见表1。其中,参数A1,A2的取值范围通过图2所示的结构概念;表1Class_noFPLOAFFFRLOCFLOCW10.1985020.312360.2326590.4603170.5384620.4837610.8064960.51957720.2247190.3179780.2526970.3750.6153850.4471150.8211540.53692530.1273410.2898880.1761050.4222220.3846150.410941.2465640.71133440.1685820.2850570.2035250.4222220.3846150.410940.8356240.51957450.1685390.2988760.207640.4210530.4871790.4408911.2645340.73608760.1235960.3022470.1771910.2592590.4615380.3199431.1919660.68457870.2689390.3647730.2976890.4814810.6923080.5447291.3268380.81226480.1835210.3056180.220150.476190.5384620.4948721.2969230.75853690.1348310.2988760.1840450.2982460.4871790.3549260.858030.521037100.2059930.312360.2379030.3333330.5897440.4102560.8358970.5369110.1797750.3404490.2279780.2307690.6666670.3615381.2169230.72245120.112360.3258430.1764040.2463770.5897440.3493871.2096320.693018130.1417620.2954020.1878540.4583330.4102560.443910.8224360.505145140.2546820.2820220.2628840.6190480.3589740.5410261.3246150.79375150.2509360.3494380.2804870.5714290.7179490.6153851.3692310.824859160.2771540.3595510.3018730.5802470.6923080.6138651.3683190.835096①计算后次课与前次课的学生听课水平差值Wj-Wj-1,然后统计所有的差值点16次课时,则有15个差值并绘成折线图。②计算后次课与前次课的座位分布水平差值d,然后统计所有的差值点16次课时,则有15个差值并绘成折线图。③将①和②中的两个折线图进行比对,若趋势相近不要求值相近,这说明参数的取值较好,若差距较大,这说明参数的取值较差。在实际计算中,需进行多次调参,计算出不同结果的学生听课水平,然后多次进行①操作,通过③逐渐找到合适的参数。可参见图4;在具体实施过程中,建立关注度-专注度水平矩阵,如图5所示,将计算得到学生课堂关注度水平LOA和学生课堂专注度水平LOC作为坐标点LOA,LOC落入关注度-专注度水平矩阵,根据属的区块,反映出该课程某次课时的课堂质量水平。实施例2本实施例与实施例1具有相同步骤,在具体实施过程中基于该课程学生的16次课时的听课水平W,进行学期的课程质量评估:TCQ=γD2·Zα2·Σα+D+22·exp[-0.5Tr[Z·Σ-1]+γμ-VTΣ-1μ-VγD2]+b其中,γ,α为参数,Z为C×D维的矩阵,D为学期划分模块数量,C为总课时数量均分到不同学期子模块的课时数量;V为对应不同学期子模块的D×1维的权重矩阵;Σ为C×D的协方差矩阵;Tr[Z]为矩阵Z的秩;μ为D×1权重均值矩阵,如权重矩阵V为[a,b,c,d]T,设e=a+b+c+d4,则矩阵μ为[e,e,e,e]T。b为常数。该课程共16次课时,将D设为4,即为4个学期子模块,分别为:开学初,期中前,期中后,期末;则C=16D=4,即Z是一个4×4维的矩阵;V由于D的确立也存放4个权重值,成为4×1维矩阵,再确定其他参数,结合公式得到结果,得到该课程的课堂质量学期总评。综合全部课程的TCQ,可得到该学期课程的课堂质量排名。相同或相似的标号对应相同或相似的部件;附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制;显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

权利要求:1.一种基于关注度和专注度的学生听课水平综合评估方法,其特征在于,包括以下步骤:S1:采集当前课时课堂教学视频数据,获取讲课过程中学生行为信息;S2:利用步骤S1中的学生行为信息,计算学生关注度水平和专注度水平;S3:利用步骤S2中的得到学生关注度和专注度得到当前课时学生听课水平。2.根据权利要求1所述的基于关注度和专注度的学生听课水平综合评估方法,其特征在于,所述步骤S1中采集当前课时课堂教学视频数据,获取讲课过程中学生行为信息,包括以下步骤:S1.1:采集当前课时课堂教学视频,对其设定帧间隔进行图像抽取,将读取的帧存储为图片并按提取顺序存储为图片集;S1.2:将图片集中的图片依次输入到预训练的卷积神经网络,检测人脸,标记人脸边界框,捕捉人脸特征,进行标注,与提前收集的人脸数据库集进行匹配;S1.3:将不同时间所识别的同一位置的有效人脸按时间提取分别储存,将每个时间所识别出的人数进行统计,获取学生行为信息。3.根据权利要求2所述的基于关注度和专注度的学生听课水平综合评估方法,其特征在于,所述学生行为信息包括瞬时全班抬头人数、瞬时前排抬头人数、全班总人数和前排座位量。4.根据权利要求2所述的基于关注度和专注度的学生听课水平综合评估方法,其特征在于,步骤S1.2中预训练的卷积神经网络的构建,包括以下步骤:S1.2.1:提前收集人脸数据库图像集;S1.2.2:对人脸数据集预处理,并将人脸数据库集划分为训练集、验证集和测试集,并保证三个数据集之间的比例合适;S1.2.3:将人脸数据作为输入层输入到卷积网络进行训练,卷积网络由多个卷积层、池化层、全连接层连接,后面运用softmax算法对不同人脸进行标注,Softmax损失函数来计算训练的结果与实际值之间的误差,该误差越小,表明网络的分类效果越好,通过反向传播算法不断优化网络参数,减小损失函数值,直到其收敛,即可得到最终的卷积神经网络参数,得到训练好的卷积神经网络。5.根据权利要求2所述的基于关注度和专注度的学生听课水平综合评估方法,其特征在于,步骤S2中根据学生行为信息,计算学生关注度水平和专注度水平,包括以下步骤:S2.1:计算关注度水平;关注度水平LOA按下式计算:LOA=w1×F+w2×P其中,F和P的计算公式如下:all_sitting=fronts+middles+backs上述式中,F表示学生抬头水平,P表示学生座位分布水平;w1为抬头水平在关注度水平中的权重,w2为学生座位分布水平在关注度水平中的权重;N表示对该课堂采集的照片总数;face_peri表示第i张图片检测的抬头人数的期望;num_facei表示第i张图片内抬头的人数;face_totali表示第i张图片中所包含的实际人数;将学生座位分布指的是以从教室的第一排至学生所占用座位的最后一排为听课区域,将课堂座位划分成前、中、后三个子区域;fronts表示前排听课人数,middles表示中排听课人数,backs表示后排听课人数;all_sitting表示课堂的学生总数;V1是前排听课人数在学生座位分布水平的权重,V2是中排听课人数在学生座位分布水平的权重,V3是后排听课人数在学生座位分布水平的权重;S2.2:计算专注度水平-前排水平;专注度水平-前排水平LOCF按下式计算:LOCF=w3×FF+w4×FR其中FF和FR的计算公式如下:frontface_peri=num_frontfaceifrontface_totaliFR=frontsfront_seats上述式中,FF表示前排抬头水平,FR表示前排座位占用率;w3为前排抬头水平在专注度水平-前排水平中的权重,w4为前排座位占用率在专注度水平-前排水平中的权重,w3=w1,w4=w2;frontface_peri表示第i张图片中的前排抬头水平,num_frontfacei表示第i张图片中前排抬头人数,frontface_totali表示第i张图片中所包含的前排人数;fronts表示前排人数,front_seats表示前排座位数量;S2.3:计算学生课堂专注度水平-整体水平;学生课堂专注度水平-整体水平LOC按下式计算:LOC=gLOCF|attitude式中,attitude有两种状态值,attitude=1代表学生听课态度积极,attitude=0代表学生听课态度消极,因此有如下两种公式:上述式中,B为基本分值,以保证最后算出的LOC为正值;A1为学生听课态度积极状态下,LOCF反映到整体的转换系数;A2为学生听课态度消极状态下,LOCF反映到整体的转换系数。6.根据权利要求5所述的基于关注度和专注度的学生听课水平综合评估方法,其特征在于,所述步骤S3中基于学生关注度和专注度得到当前课时学生听课水平,包括以下步骤:S3.1:基于关注度和专注度的学生听课水平W,按下式计算:WjLOA,LOC=Q·XTQ=[LOA,LOC],XT=[x1,x2]T上述式中,WjLOA,LOC为第j次课时的学生听课水平,Q为关注度与专注度的矩阵,XT为LOA和LOC反映在听课水平上的权值转置矩阵。7.根据权利要求6所述的基于关注度和专注度的学生听课水平综合评估方法,其特征在于,还包括步骤S4:根据全部课时的学生听课水平得到课堂质量综合评估。8.根据权利要求7所述的基于关注度和专注度的学生听课水平综合评估方法,其特征在于,所述步骤S4中根据全部课时的学生听课水平得到课堂质量综合评估TCQ,按下式公式计算:TCQ=γD2·Zα2·Σα+D+22·exp[-0.5Tr[Z·Σ-1]+γμ-VTΣ-1μ-VγD2]+b上述式中,γ,α为参数;Z为C×D维矩阵,D为学期划分模块数量,C为总课时数量均分到不同学期划分模块的课时数量;V为对应不同学期模块的D×1维的权重矩阵;Σ为C×D维的协方差矩阵;Tr[Z·Σ-1]表示矩阵Z·Σ-1的秩;μ为D×1维的权重均值矩阵,权重均值矩阵指的是相对于权重矩阵V的,权值平均化的矩阵;b为常数。

百度查询: 北京师范大学珠海分校 一种基于关注度和专注度的学生听课水平综合评估方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。