买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】基于深度图像的旗语识别方法及装置_中国人民解放军理工大学_201510247278.3 

申请/专利权人:中国人民解放军理工大学

申请日:2015-05-14

公开(公告)日:2018-04-03

公开(公告)号:CN104834913B

主分类号:G06K9/00(2006.01)I

分类号:G06K9/00(2006.01)I

优先权:

专利状态码:有效-授权

法律状态:2018.04.03#授权;2015.09.09#实质审查的生效;2015.08.12#公开

摘要:本发明公开一种基于深度图像的旗语识别方法及装置,方法包括:10根据人体动作深度图像,将人体与背景进行分割,对人体区域逐步细化,提取人体骨架线;20基于关节点空间关系人体模型,利用人体骨架线对人体手臂动作进行描述;30根据由大臂、小臂、手腕三个基本分量构成的手臂不同空间位置及运动轨迹定义手臂姿态模式;40通过手臂姿态模式与旗语库中的预定义动作模式的匹配,将与该手臂姿态模式最接近的预定义动作作为该人体动作对应的旗语。装置包括人体骨架特征提取单元、人体动作描述单元、手臂姿态模式定义单元和旗语识别单元。本发明方法及装置,受环境因素影响小,实时性好,识别率高。

主权项:一种基于深度图像的旗语识别方法,包括如下步骤:10人体骨架特征提取:根据人体动作深度图像,将人体与背景进行分割,对人体区域逐步细化,提取人体骨架线;20人体动作描述:基于关节点空间关系人体模型,利用人体骨架线对人体手臂动作进行描述;30手臂姿态模式定义:根据由大臂、小臂、手腕三个基本分量构成的手臂不同空间位置及运动轨迹定义手臂姿态模式;40旗语识别:通过手臂姿态模式与旗语库中的预定义动作模式的匹配,将与该手臂姿态模式最接近的预定义动作作为该人体动作对应的旗语;所述10人体骨架特征提取步骤包括:11图像分割:在深度图中,使用直接阈值分割的方法对人体区域与背景进行分割;12骨架提取:通过腐蚀运算和开运算,逐步将图像边界向内缩小,最终形成骨架效果,如下式,thin1=X⊗{B1}---1,]]think⊗{Bk+1}---2,]]think+1=think⊗{Bk+1}---3,]]式中,X为人体分割区域图,B为腐蚀运算的结构算子;k代表A细化的次数,think表示第k次细化的结果;所述20人体动作描述步骤包括:21头颈部节点确定:根据人体骨架线,确定骨架线顶点为人体头部节点、两肩部连线与头部连线交叉点为颈部节点;22肩部节点确定:根据肩部节点以颈部节点为中点,肩部的长度为颈部长度的32,确定左、右肩节点;23肘部节点确定:根据上臂长度为肩宽的23,确定肘部节点;24手部节点确定:根据小臂长度为肩宽的59,确定手部节点;所述30手臂姿态模式定义步骤中,小臂长度lf表示为:lf=xh-xe2+yh-ye2+zh-ze2---4,]]大臂长度lU表示为:lu=xe-xs2+ye-ys2+ze-zs2---5,]]式中,xh,yh,zh为手部节点坐标,xe,ye,ze为肘部节点坐标,xs,ys,zs为肩部节点坐标;其特征在于,所述40旗语识别步骤具体为:由一个或两个窗口形成判别区域,将手臂姿态模式与旗语库中的预定义动作模式的匹配,以与该手臂姿态模式最接近的预定义动作作为该人体动作对应的旗语,其中,肘部坐标点的窗口如下式,|xe-xs+lucosuk|e2|ye-xs+lusinuk|e2---6,]]手部坐标点的窗口如下式:|xh-xe+lfcosfk|h2|yh-xe+lfsinfk|h2---7,]]其中,α是常量,β为规定信号格式的试验边界值,θuk为肩部角度,θfk为肘部角度,θuk,θfk为旗语动作信号模式,k为信号模式种类。

全文数据:基于深度图像的旗语识别方法及装置技术领域[0001]本发明属于旗语识别技术领域,特别是一种受环境因素影响小,实时性好,识别率高的基于深度图像的旗语识别方法及装置。背景技术[0002]旗语作为一种特殊信息传递方式,在军事领域被广泛应用,例如门桥漕渡、飞机牵引及航母飞机起降等操作过程中都需要旗语或手势动作进行指挥引导。目前,模拟训练在军事训练中的作用与地位越来越重要,模拟训练相关技术的研究也越来越受到关注。对于与旗语指挥相关的军事模拟训练科目,需要通过计算机对旗语进行识别,从而使系统获得旗语动作的指令含义,完成受训人员与模拟训练系统的交互。旗语识别技术是通过计算机理解手势动作,进而识别出旗语信号的语义。如何实现快速、准确的识别成为这一应用中的关键问题。[0003]现有的旗语识别方法主要有以下两种:1接触式手势识别技术,如数据手套;2非接触式手势识别技术,主要采用计算机视觉实现手势识别,如单目视觉传感器,双目立体视觉传感器等。在基于视觉的手势识别技术中,主要有采用纹理、网格等构建的3D模型以及基于各种表观特征模型。但由于这些方法受环境因素的影响,并且缺乏动作本身的深度信息,难以对旗语运动特征进行有效提取。[0004]总之,现有技术存在的问题是:旗语识别受环境因素影响大,实时性差,准确率低。发明内容[0005]本发明的目的在于提供一种基于深度图像的旗语识别方法,受环境因素影响小,实时性好,识别率高。[0006]本发明的另一目的在于提供一种基于深度图像的旗语识别装置。[0007]实现本发明目的的技术解决方案为:一种基于深度图像的旗语识别方法,包括如下步骤:[0008]10人体骨架特征提取:根据人体动作深度图像,将人体与背景进行分割,对人体区域逐步细化,提取人体骨架线;[0009]20人体动作描述:基于关节点空间关系人体模型,利用人体骨架线对人体手臂动作进行描述;[0010]30手臂姿态模式定义:根据由大臂、小臂、手腕三个基本分量构成的手臂不同空间位置及运动轨迹定义手臂姿态模式;[0011]40旗语识别:通过手臂姿态模式与旗语库中的预定义动作模式的匹配,将与该手臂姿态模式最接近的预定义动作作为该人体动作对应的旗语。[0012]本发明与现有技术相比,其显著优点:[0013]1、受环境因素影响小:本发明基于结构光获取的深度图像,避免了单纯依靠可见光图像分析技术中对环境干扰的敏感性,保证了系统在正常自然环境中工作的可靠性;[0014]2、实时性好:本发明采用基于空间位置关系的旗语识别技术,算法计算量小,保证了系统工作的实时性;[0015]3、识别率高:在使用测试中,对于旗语动作的平均识别率达到95.41%,完全可以满足使用要求;[0016]4、使用方便:本发明提供了一种自然人机交互方式,使用者不需要佩戴任何辅助设备就可以完成对其作出旗语动作的识别;[0017]5、使用成本低:本发明的硬件成本低,不存在易损件,使用过程也没有对设备的损耗。[0018]下面结合附图和具体实施方式对本发明作进一步的详细描述。附图说明[0019]图1为本发明基于深度图像的旗语识别方法流程图。[0020]图2为手臂位置坐标参数原理图。[0021]图3为旗语信号判别窗口原理图。[0022]图4为普通灰度图像原理图。[0023]图5为深度图像原理图。[0024]图6为结构光获取原理示意图。具体实施方式[0025]如图1所示,本发明基于深度图像的旗语识别方法,包括如下步骤:[0026]10人体骨架特征提取:根据人体动作深度图像,将人体与背景进行分割,对人体区域逐步细化,提取人体骨架线。[0027]所述10人体骨架特征提取步骤包括:[0028]11图像分割:在深度图中,使用直接阈值分割的方法对人体区域与背景进行分割;[0029]12骨架提取:通过腐蚀运算和开运算,逐步将图像边界向内缩小,最终形成骨架效果,如下式,[0033]式中,X为人体分割区域图,B为腐蚀运算的结构算子;k代表A细化的次数,think表示第k次细化的结果。[0034]20人体动作描述:基于关节点空间关系人体模型,利用人体骨架线对人体手臂动作进行描述。[0035]根据旗语动作对人体行为描述的精度要求,设骨架模型由8个骨骼节点来表示身体部位。由于不同身体部位之间的比例固定,参考“美国宇航局人体测量参考手册”中身体部位间的比例关系,完成对人体骨骼节点的定位。[0036]所述20人体动作描述步骤包括:[0037]21头颈部节点确定:根据人体骨架线,确定骨架线顶点为人体头部节点、两肩部连线与头部连线交叉点为颈部节点;[0038]22肩部节点确定:根据肩部节点以颈部节点为中点,肩部的长度为颈部长度的32,确定左、右肩节点;[0039]23肘部节点确定:根据上臂长度为肩宽的23,确定肘部节点;[0040]24手部节点确定:根据小臂长度为肩宽的59,确定手部节点。[0041]30手臂姿态模式定义:根据由大臂、小臂、手腕三个基本分量构成的手臂不同空间位置及运动轨迹定义手臂姿态模式。[0042]所述30手臂姿态模式定义步骤中,小臂长度If表示为:[0043][0044]大臂长度Iu表示为:[0045][0046]式中,(xh,yh为手部节点坐标,(Xnye3为肘部节点坐标,(xh,yh为肩部节点坐标。[0047]手臂的三个分量组成了完整的手臂模式空间,手臂模式的确定采用角度坐标系表示法,手臂位置坐标参数原理如图2所示。[0048]40旗语识别:通过手臂姿态模式与旗语库中的预定义动作模式的匹配,将与该手臂姿态模式最接近的预定义动作作为该人体动作对应的旗语。[0049]所述40旗语识别步骤具体为:由一个或两个窗口形成判别区域,将手臂姿态模式与旗语库中的预定义动作模式的匹配,以与该手臂姿态模式最接近的预定义动作作为该人体动作对应的旗语,其中,[0050]肘部坐标点的窗口如下式,[0051][0052]手部坐标点的窗口如下式:[0053][0054]其中,α是常量,β为规定信号格式的试验边界值,0uk和0fk的角度表示为肩部角度和肘部角度,每一个旗语动作信号模式由一对9uk,9fk定义,当肘部坐标的检测图形Xe,ye和手部坐标xh,yh满足等式⑷和5,那么动作就可以用第k种信号模式来识别。[0055]旗语信号判别窗口原理如图3所示。[0056]本发明基于深度图像的旗语识别装置,包括:[0057]人体骨架特征提取单元(100,用于根据人体动作深度图像,将人体与背景进行分割,对人体区域逐步细化,提取人体骨架线;[0058]人体动作描述单元200,用于基于关节点空间关系人体模型,利用人体骨架线对人体手臂动作进行描述;[0059]手臂姿态模式定义单元300,用于根据由大臂、小臂、手腕三个基本分量构成的手臂不同空间位置及运动轨迹定义手臂姿态模式;[0060]旗语识别单元400,用于通过手臂姿态模式与旗语库中的预定义动作模式的匹配,将与该手臂姿态模式最接近的预定义动作作为该人体动作对应的旗语。[0061]本发明的原理在于:[0062]普通图像是三维世界在像平面的投影,其中丢失了深度信息,无法描述真实的三维世界,如图4所示。深度图像是对这一丢失信息的弥补。深度图像也被称为距离图像,深度图像是通过灰度图像来描述一个场景,这些灰度值代表了传感器平面与测试目标的距离,如图5所示。深度图像一般是由深度传感器通过接收处理生成的,深度图像不受到环境光线的影响,因此可以更准确地体现描述)目标表面的深度信息。[0063]深度图像中的灰度值反映的是物体表面到采集窗口的距离,因此在光照条件不稳定的情况下,深度图像不受颜色、光照等环境因素影响,大大提高了对特定对象的描述质量;同时,深度图像的灰度值与普通图像中Χ,γ坐标能够构成三维坐标系,还原真实场景中的三维信息,实现在3D空间行为模式的描述与识别,并在一定程度上解决重叠遮挡等问题。[0064]深度图像获取技术可以分为主动式和被动式,主动测距传感是指视觉传感器主动向物体目标场景发射能量束,如激光、声纳等,如加州理工学院JPL实验室研制出的高精度的激光测距系统;被动测距传感是指视觉传感器被动接受来自物体目标场景的光线,通过形成图像灰度来重构出深度信息。[0065]深度图像获取方法中,结构光具有精度高,视场广泛,测量距离远,易于提取,提取速度快及主动受控等优点。结构光被广泛应用的同时也在不断改进,其中光编码技术就是一种最新的结构光技术,传统结构光方法中光源打发出的是一幅二维的图像编码,而光编码技中光源发射的是一个具有三维纵深的体编码。[0066]结构光是利用激光发射装置发射激光,经过非球面的柱面镜将光源平面照射在目标物体上,从而在目标物体表面产生光条,通过接受摄像机CCD获得数字图像上的光条信息,从而计算出物体在光切面的二维轮廓信息,之后沿着第三维的直线方向,进行步进测量,即可获取目标物体的深度图像。结构光不存在匹配问题,但无法实现测试装置与被测目标之间的相对旋转。如图6所示结构光获取原理示意图。

权利要求:1.一种基于深度图像的旗语识别方法,包括如下步骤:10人体骨架特征提取:根据人体动作深度图像,将人体与背景进行分割,对人体区域逐步细化,提取人体骨架线;20人体动作描述:基于关节点空间关系人体模型,利用人体骨架线对人体手臂动作进行描述;30手臂姿态模式定义:根据由大臂、小臂、手腕三个基本分量构成的手臂不同空间位置及运动轨迹定义手臂姿态模式;40旗语识别:通过手臂姿态模式与旗语库中的预定义动作模式的匹配,将与该手臂姿态模式最接近的预定义动作作为该人体动作对应的旗语;所述10人体骨架特征提取步骤包括:11图像分割:在深度图中,使用直接阈值分割的方法对人体区域与背景进行分割;12骨架提取:通过腐蚀运算和开运算,逐步将图像边界向内缩小,最终形成骨架效果,如下式,式中,X为人体分割区域图,B为腐蚀运算的结构算子;k代表A细化的次数,think表示第k次细化的结果;所述20人体动作描述步骤包括:21头颈部节点确定:根据人体骨架线,确定骨架线顶点为人体头部节点、两肩部连线与头部连线交叉点为颈部节点;22肩部节点确定:根据肩部节点以颈部节点为中点,肩部的长度为颈部长度的32,确定左、右肩节点;23肘部节点确定:根据上臂长度为肩宽的23,确定肘部节点;24手部节点确定:根据小臂长度为肩宽的59,确定手部节点;所述30手臂姿态模式定义步骤中,小臂长度If表示为:大臂长度Iu表示为:式中,(Xh,yh,Zh为手部节点坐标,(Xe^yuZe3为肘部节点坐标,(xs,ys,Zs为肩部节点坐标;其特征在于,所述40旗语识别步骤具体为:由一个或两个窗口形成判别区域,将手臂姿态模式与旗语库中的预定义动作模式的匹配,以与该手臂姿态模式最接近的预定义动作作为该人体动作对应的旗语,其中,肘部坐标点的窗口如下式,手部坐标点的窗口如下式:其中,α是常量,β为规定信号格式的试验边界值,9uk为肩部角度,0fk为肘部角度,(0uk,0fk为旗语动作信号模式,k为信号模式种类。

百度查询: 中国人民解放军理工大学 基于深度图像的旗语识别方法及装置

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。