买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明公布】一种眼动选择交互意图识别方法_贵州大学_202311762647.3 

申请/专利权人:贵州大学

申请日:2023-12-20

公开(公告)日:2024-03-22

公开(公告)号:CN117742490A

主分类号:G06F3/01

分类号:G06F3/01;G06F18/241;G06F18/214;G06F18/213;G06T19/00

优先权:

专利状态码:在审-实质审查的生效

法律状态:2024.04.09#实质审查的生效;2024.03.22#公开

摘要:本发明的一种眼动选择交互意图识别方法,包括:步骤1、数据集获取:获取虚拟现实环境中眼动目标选择的意图识别数据集,该数据集包括原始凝视数据、手眼协调相关数据、眼动跟踪器运动方向位置数据C、原始时间戳T;步骤2、数据集特征提取,包括间隙填充插值、降噪、计算速度、分类、后处理;步骤3、意图识别:构建基于随机森林的意图识别模型,进行模型训练,输入相关数据进行眼动选择交互意图识别。本发明能提高自然直观的交互体验,减轻用户的身体疲劳和认知负担。

主权项:1.一种眼动选择交互意图识别方法,其特征在于:该方法包括如下步骤:步骤1、数据集获取:获取虚拟现实环境中眼动目标选择的意图识别数据集,该数据集包括原始凝视数据、手眼协调相关数据、眼动跟踪器运动方向位置数据C、原始时间戳T;所述原始凝视数据包括:左眼瞳孔位置P1、右眼瞳孔位置P2、左眼瞳孔直径D1、左眼瞳孔直径D2、左眼张开程度Z1、右眼张开程度Z2、凝视方向向量G、凝视起始方向向量O;步骤2、数据集特征提取:具体步骤包括:步骤2.1、数据集数据预处理:为将眼动目标选择的意图识别数据集用于虚拟现实中更加准确的交互,将所述眼动目标选择的意图识别数据集的数据从头部参考框架转换到世界坐标系中;步骤2.2、数据特征提取:从经过预处理的数据集中分类注视和扫视事件,具体步骤包括:步骤2.2.1、间隙填充插值:当通过样本检测发现所述具有有效原始凝视数据的上一个样本与当前样本无效原始凝视数据的时间差小于最大间隙长度时,将对这部分无效原始凝视数据样本进行插值替换:首先,通过公式1创建比例因子S,其中t1为被替换样本的时间戳,t2为间隙之前的最后一个有效样本的时间戳,T代表间隙的总持续时间;其次,将比例因子S与间隙之后的第一个有效样本的位置数据相乘;最后,将结果与间隙之前的最后一个有效样本的位置数据相加; 步骤2.2.2、降噪:通过对相邻数据点进行平均操作来降噪,其降噪函数为移动平均降噪函数y[n],该函数将一个数据点的值替换为其前后N个数据点的平均值,从而实现平滑处理,见公式2: 其中,n为滑动窗口的每个位置,N表示前面和后面的样本的数量,k为移动平均滤波通过在信号序列上滑动的一个固定长度;步骤2.2.3、计算速度:计算其样本的眼睛位置,并使用该位置计算眼睛位置和两个凝视点之间的视角,然后除以两个样本之间的时间,得出角速度;步骤2.2.4、分类:使用速度阈值算法I-VT对原始凝视数据进行检测分类注视和扫视事件;所述使用速度阈值算法I-VT对原始凝视数据进行检测分类注视和扫视事件:在眼动跟踪器上设置的移动窗口上计算角速度,如果角速度的变化大于设置的阈值,则眼球运动被归类为扫视事件,否则,它被归类为注视事件;步骤2.2.5、后处理:样本受到干扰可能导致错误分类,长注视被分成多个短注视,当两个短注视时间小于设定阈值时,确定两个固定位置之间的视角:通过计算第一次注视的最后一个样本和下一次注视的第一个样本的左眼瞳孔位置P1或右眼瞳孔位置P2的平均值,确定第一次注视的注视位置和下一次注视之间的视角,并在该角度小于或等于两个固定位置之间最大视角角度时进行短注视合并;步骤3、意图识别:构建基于随机森林的意图识别模型,采用步骤2.2.5处理后的数据集进行基于随机森林的意图识别模型训练,输入相关数据进行眼动选择交互意图识别。

全文数据:

权利要求:

百度查询: 贵州大学 一种眼动选择交互意图识别方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。