买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】一种基于极短视频的人脸活体检测方法_上海师范大学_201711275569.9 

申请/专利权人:上海师范大学

申请日:2017-12-06

公开(公告)日:2021-11-19

公开(公告)号:CN108021892B

主分类号:G06K9/00(20060101)

分类号:G06K9/00(20060101);G06K9/62(20060101)

优先权:

专利状态码:有效-授权

法律状态:2021.11.19#授权;2018.06.05#实质审查的生效;2018.05.11#公开

摘要:本发明公开一种基于极短视频人脸活体检测方法。首先,采集包括真人脸部和该真人脸部照片的训练集视频。接着,利用欧拉放大技术对真假人脸视频进行时‑空滤波处理,得到欧拉放大视频。然后,通过SIFT算法提取训练视频中各帧图像之间的SIFT特征匹配点对,再将特征匹配点对的坐标用于其对应的欧拉放大视频,并结合帧间红色分量的差值生成该段训练视频的特征直方图。在测试时,采集时长1秒的待检测人脸视频并生成特征直方图。最后,将训练集中所有训练视频所对应的特征直方图和待检测人脸视频的特征直方图输入到SVM分类器进行真假判断。该方法只需要1秒钟的极短人脸视频,就可以进行真假判断,并不需要用户人脸部的任何动作,可以达到95%的正确识别率。

主权项:1.一种基于极短视频的人脸活体检测方法,其特征在于,包括以下步骤:S1:采集包括真人脸部和该真人脸部照片的训练集视频,所述训练集视频中的各段训练视频时长被设置为1秒;S2:对所述训练视频进行欧拉视频放大处理,得到欧拉放大视频;S3:提取所述训练视频中各帧图像的SIFT特征点并进行帧间SIFT特征点匹配;S4:将所述训练视频的帧间SIFT特征匹配点对的坐标,应用到其对应的所述欧拉放大视频,并结合帧间红色分量的差值生成该段所述训练视频的特征直方图;其具体步骤为:1假定训练视频中第1帧与第2帧共提取k对SIFT匹配点对,第1帧的k个SIFT特征点记作{s11,s12,…,s1k},第2帧的k个SIFT特征点记作{s21,s22,…,s2k};2对于经欧拉视频放大处理后的第1帧图像的红色分量I1,分别以{s11,s12,…,s1k}中的k个坐标点为中心,计算其3*3邻域的均值,从而得到k个均值{r11,r12,…,r1k},对于经欧拉视频放大处理后的第2帧图像的红色分量I2也进行同样运算,得到k个均值{r21,r22,…,r2k},计算第1帧与第2帧间所有匹配点对的对应均值间差值的绝对值,得到|r21-r11|,|r22-r12|,…,|r2k-r1k|,同理,计算第1帧与第3帧间所有匹配点对的对应均值间差值的绝对值,…,计算第1帧与第n帧间所有匹配点对的对应均值间差值的绝对值,…,计算将第2帧和第3帧,第4帧,…,第n帧间所有匹配点对的对应均值间差值的绝对值,以此类推,直到计算第n-1帧和第n帧间所有匹配点对的对应均值间差值的绝对值;3对于所有的均值差值的绝对值,按[0,0.5],[0.5,1],[1,1.5],[1.5,2],[2,4],[4,6],[6,8],[8,10],[10,12],[12,14],[14,16]等构成的11个区间,统计该段训练视频中所有的均值差值的绝对值落入这11个区间的数目,并构建归一化所述训练视频的特征直方图;S5:采集时长1秒的待检测人脸视频并生成待检测人脸视频的特征直方图;S6:将所述训练集视频中的所有训练视频所对应的所述训练视频的特征直方图和所述待检测人脸视频的特征直方图输入到SVM,输出检测结果。

全文数据:一种基于极短视频的人脸活体检测方法技术领域[0001]本发明涉及机器学习和模式识别领域,尤其涉及一种基于极短视频的人脸活体检测方法。背景技术[0002]近年来,生物特征识别技术取得飞速发展,指纹识别、人脸识别、虹膜识别等身份识别技术得到非常广泛的应用。生物识别技术是根据人体的生理或生理特征来识别一个人。为确保身份验证的正确性,生物识别系统必须能够检测和识别出使用的是生物特征的副本,还是活体本身生物特征,这个通常称为“活性检测”。例如,传统的人脸识别系统在实际应用中能被轻易攻击,N.MDuc等人用一张打印的人脸照片就能通过系统认证。因此,人脸活体检测对于人脸识别系统的安全性尤其重要。[0003]人脸识别系统主要面临着三种常见的欺骗手段:照片欺骗、视频欺骗和三维模型欺骗。国内外许多研究学者都致力于活体检测研究问题。K.Kollreider提出利用光流学方法检测人脸动态变化从而进行活体检测。这种方法所需的特征难以获取,需要用户的主动配合,而且假冒者刻意将照片弯曲变形时,估计的深度坐标会有较大的变化,同时这种判断易受到噪声和光照条件的影响,所以,该方法可靠性不强。A.K.Jain等人提出利用傅里叶频谱分析方法,定义频率动态描述子来区分活体脸和照片人脸。JukkaMaatta等人提出利用LBP特征、Gaborwavelet和HOG三种特征融合的方法来进行活体检测的判别。DiegoA等人将拍摄到可见光人脸和热红外人脸进行匹配,根据两者相关性进行活体判断。Hyung-KeunJee等人在输入的连续图片序列中检测眼睛并且计算眼睛区域的运动,以判断输入人脸是活体还是翻拍照片。这些方法需要额外的设备,在普通设备上无法大力推广。[0004]因此,本领域的技术人员致力于开发一种基于极短视频人脸活体检测方法。首先,采集包括真人脸部和该真人脸部照片的训练集视频,训练集中各段训练视频时长1秒。接着,利用欧拉放大技术对真假人脸视频进行时-空滤波处理,得到欧拉放大视频。然后,通过SIFT算法提取训练视频中各帧图像之间的SIFT特征匹配点对,再将特征匹配点对的坐标用于其对应的欧拉放大视频,并结合帧间红色分量的差值生成该段训练视频的特征直方图。在测试时,采集时长1秒的待检测人脸视频并生成特征直方图。最后,将训练集中所有训练视频所对应的特征直方图和待检测人脸视频的特征直方图输入到SVM分类器进行真假判断。实验结果表明,该方法只需要1秒钟的极短人脸视频,就可以进行真假判断,并不需要用户人脸部的任何动作,可以达到95%的正确识别率。本发明的优势在于,传统的真假人脸识别需要用户主动配合,即要求用户在一段时间下完成脸部的表情或姿态的变化才能进行真假人脸的判定,而本发明只需1秒时间且不需用户任何脸部的动作就可以进行真假人脸的识别。同时,本发明只需要一台图像拍摄装置,不需要其它额外的设备,即可完成真假人脸识别,操作过程比传统方法更为简捷方便,并能达到较高的识别率。发明内容[0005]由于光流学方法检测人脸的特征难以获取,需要用户的主动配合,同时容易受到噪声和光照条件的影响,可靠性不强;将可见光人脸和热红外人脸匹配的方法需要额外的设备,在普通设备上无法大力推广。为解决上述问题,本发明提出一种基于极短视频的人脸活体检测方法。包括以下步骤:[0006]SI:采集包括真人脸部和该真人脸部照片的训练集视频,训练集中各段训练视频时长1秒;[0007]S2:对训练视频进行欧拉视频放大处理,得到欧拉放大视频;[0008]S3:提取训练视频中各帧图像的SIFT特征点并进行帧间SIFT特征点匹配;[0009]S4:将训练视频帧间SIFT特征匹配点对的坐标,应用到其对应的欧拉放大视频,并结合帧间红色分量的差值生成该段训练视频的特征直方图;[0010]S5:采集时长1秒的待检测人脸视频并生成待检测人脸视频的特征直方图;[0011]S6:将训练集中所有训练视频所对应训练视频的特征直方图和待检测人脸视频的特征直方图输入到SVM,输出检测结果。[0012]进一步地,步骤Sl采集包括真人脸部和该真人脸部照片的训练集视频,训练集中各段训练视频时长1秒,其具体步骤为:利用视频采集装置采集真人脸部的训练视频,以及该真人脸部照片的训练视频,训练视频时长1秒,所有的训练视频构成训练集视频。[0013]进一步地,步骤S2对训练视频进行欧拉视频放大处理,得到欧拉放大视频,其具体步骤为:对于训练集中各段训练视频,首先,用拉普拉斯金字塔对训练视频进行空间域分解;然后,经高斯滤波器对空间域分解结果进行时域滤波处理;最后,将得到的信号进行放大,得到欧拉放大视频。[0014]进一步地,步骤S3提取训练视频中各帧图像的SIFT特征点并进行帧间SIFT特征点匹配,其具体步骤为:利用SIFT算法提取训练视频中各帧图像的SIFT特征点,并进行SIFT特征点匹配。匹配方法是第1帧与第2帧,第3帧,…,第η帧图像分别进行特征点匹配,得到帧间匹配点对,再将第2帧和第3帧,第4帧,…,第η帧图像分别进行特征点匹配,以此类推,直到第η-1帧和第η帧进行特征点匹配。[0015]进一步地,步骤S4将训练视频帧间SIFT特征匹配点对的坐标,应用到其对应的欧拉放大视频,并结合帧间红色分量的差值生成该段训练视频的特征直方图,其具体步骤为:1假定训练视频中第1帧与第2帧共提取k对SIFT匹配点对,第1帧的k个SIFT特征点记作isil,S12,.",Slk},第2桢的k个SIFT特征点记作{s21,S22,...,S2k};2对于经欧拉视频放大处理后的第1桢图像的红色分量I1,分别以{sn,S12,"SS11J中的k个坐标点为中心,计算其3*3邻域的均值,从而得到k个均值{rn,r12,···,=!1的坐标为62,476,可得到如下计算公式:[0081]同理,可以得到剩余32个均值,从而得到33个均值Ir1,υυ,...,r133}。对于经欧拉视频放大处理后的第2帧图像的红色分量I2也进行同样运算,得到33个均值Ir2,ηr2,2,...,r2,33},计算第1帧与第2帧间所有匹配点对的对应均值间差值的绝对值,得到r2,i-ri,i|,|r2,2-ri,2|,…,|r2,33-ri,33|共33个差值绝对值,同理,计算第1桢与第3桢间所有匹配点对的对应均值间差值的绝对值,…,计算第1帧与第η帧间所有匹配点对的对应均值间差值的绝对值,…,计算将第2帧和第3帧,第4帧,…,第η帧间所有匹配点对的对应均值间差值的绝对值,以此类推,直到计算第η-1桢和第η帧间所有匹配点对的对应均值间差值的绝对值。[0082]第三步:对于所有的均值差值的绝对值,按[0,0.5],[0.5,1],[I,1.5],[1.5,2],[2,4],[4,6],[6,8],[8,10],[10,12],[12,14],[14,16]等构成的11个区间,统计该段视频中所有的均值差值的绝对值落入这11个区间的数目,并构建归一化特征直方图,如图7所不。[0083]5采集时长1秒的待检测人脸视频并生成特征直方图。其具体步骤为:采集待检测人脸视频,视频时长1秒,按训练视频生成特征直方图的方法,生成待检测人脸视频的特征直方图。例如,采集第一位试验者对应的脸部照片时长1秒视频,并将该视频作为待检测人脸视频,按照训练视频生成特征直方图的方法,生成该名试验者的特征直方图,如图8所不。[0084]6将训练集中所有训练视频所对应的特征直方图和待检测人脸视频的特征直方图输入到SVM,输出检测结果,其具体步骤为:计算训练集中所有训练视频的特征直方图和待检测人脸视频的特征直方图,将所有的特征直方图输入到SVM,输出检测结果。[0085]为进一步验证本发明方法的有效性,本实验共采集20名志愿者视频,各帧分辨率为1334*750,1秒视频包括30帧图像。每个人对应真假视频各2个,因此,我们共得到40个真假视频,由此得到40个特征直方图,其中随机选取10组真人和10组假人作为训练特征直方图,10组真人和10组假人作为测试特征直方图,如图图9-12所示。从图9-12中可以看出,真人的差值绝对值分散在不同区间,而假人的差值绝对值主要集中在[0,0.5]区间。[0086]将40组训练与测试特征直方图输入到SVM中进行判别,最终得出实验结果,如表1所示。从表1可以看出,检测准确率达到95%。[0087]表1检测结果[0088][0089]以上对本发明的具体实施进行了详细描述,但其只是作为范例,本发明并不限制于以上描述的具体实施。对于本领域技术人员而言,任何对本发明进行的等同修改和替代也都在本发明的范畴之中。因此,在不脱离本发明的精神和范围下所作的均等变换和修改,都应涵盖在本发明的范围内。

权利要求:1.一种基于极短视频的人脸活体检测方法,其特征在于,包括以下步骤:Si:采集包括真人脸部和该所述真人脸部照片的训练集视频,所述训练集视频中的各段训练视频时长被设置为1秒;S2:对所述训练视频进行欧拉视频放大处理,得到欧拉放大视频;S3:提取所述训练视频中各帧图像的SIFT特征点并进行帧间SIFT特征点匹配;S4:将所述训练视频的所述帧间SIFT特征匹配点对的坐标,应用到其对应的所述欧拉放大视频,并结合帧间红色分量的差值生成该段所述训练视频的特征直方图;S5:采集时长1秒的待检测人脸视频并生成待检测人脸视频的特征直方图;S6:将所述训练集视频中的所有训练视频所对应的所述训练视频的特征直方图和所述待检测人脸视频的特征直方图输入到SVM,输出检测结果。2.如权利要求1所述的一种基于极短视频的人脸活体检测方法,其特征在于,所述的采集包括真人脸部和该所述真人脸部照片的训练集视频,训练集中各段训练视频时长1秒,其具体步骤为:利用视频采集装置采集所述真人脸部的训练视频,以及该所述真人脸部照片的训练视频,所述训练视频时长被设置为1秒,所有的训练视频构成所述训练集视频。3.如权利要求1所述的一种基于极短视频的人脸活体检测方法,其特征在于,所述的对所述训练视频进行欧拉视频放大处理,得到欧拉放大视频,其具体步骤为:对于所述训练集中各段训练视频,首先,用拉普拉斯金字塔对训练视频进行空间域分解;然后,经高斯滤波器对所述空间域分解结果进行时域滤波处理;最后,将得到的信号进行放大,得到欧拉放大视频。4.如权利要求1所述的一种基于极短视频的人脸活体检测方法,其特征在于,所述的提取所述训练视频中各帧图像的SIFT特征点并进行帧间SIFT特征点匹配,其具体步骤为:利用SIFT算法提取所述训练视频中各帧图像的SIFT特征点,并进行所述SIFT特征点匹配。5.如权利要求4所述的一种基于极短视频的人脸活体检测方法,其特征在于,所述SIFT特征点匹配的匹配方法具体是第1帧与第2帧,第3帧,…,第η帧图像分别进行特征点匹配,得到帧间匹配点对,再将第2帧和第3帧,第4帧,…,第η帧图像分别进行特征点匹配,以此类推,直到第η-1帧和第η帧进行特征点匹配。6.如权利要求1所述的一种基于极短视频的人脸活体检测方法,其特征在于,所述的将所述训练视频的所述帧间SIFT特征匹配点对的坐标,应用到其对应的欧拉放大视频,并结合帧间红色分量的差值生成该段训练视频的特征直方图,其具体步骤为:1假定训练视频中第1帧与第2帧共提取k对SIFT匹配点对,第1帧的k个SIFT特征点记作{sil,S12,…,Slk},第2桢的k个SIFT特征点记作{S21,S22,…,S2k};2对于经欧拉视频放大处理后的第1帧图像的红色分量I1,分别以{S11,S12,…,Slk}中的k个坐标点为中心,计算其3*3邻域的均值,从而得到k个均值{rii,ri2,…,rik},对于经欧拉视频放大处理后的第2帧图像的红色分量I2也进行同样运算,得到k个均值{r21,r22,…,r2k},计算第1帧与第2帧间所有匹配点对的对应均值间差值的绝对值,得到|r21-rn|,Ir22-r12|,…,|r2k-rlk|,同理,计算第1帧与第3帧间所有匹配点对的对应均值间差值的绝对值,…,计算第1帧与第η帧间所有匹配点对的对应均值间差值的绝对值,…,计算将第2帧和第3帧,第4帧,…,第η帧间所有匹配点对的对应均值间差值的绝对值,以此类推,直到计算第η-1帧和第η帧间所有匹配点对的对应均值间差值的绝对值;3对于所有的均值差值的绝对值,按[Ο,0.5],[0.5,1],[I,1.5],[1.5,2],[2,4],[4,6],[6,8],[8,10],[10,12],[12,14],[14,16]等构成的11个区间,统计该段视频中所有的均值差值的绝对值落入这11个区间的数目,并构建归一化所述训练视频的特征直方图。7.如权利要求1所述的一种基于极短视频的人脸活体检测方法,,其特征在于,所述的采集时长1秒的待检测人脸视频并生成待检测人脸视频的特征直方图,其具体步骤为:采集待检测人脸视频,视频时长1秒,按训练视频生成特征直方图的方法,生成所述待检测人脸视频的特征直方图。8.如权利要求1所述的一种基于极短视频的人脸活体检测方法,其特征在于,所述的将所述训练集中所有训练视频所对应的所述训练视频的特征直方图和所述待检测人脸视频的特征直方图输入到SVM,输出检测结果,其具体步骤为:计算所述训练集中所有的所述训练视频的特征直方图和所述待检测人脸视频的特征直方图,将所有的所述训练视频的特征直方图和所述待检测人脸视频的特征直方图输入到SVM,输出检测结果。

百度查询: 上海师范大学 一种基于极短视频的人脸活体检测方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。