申请/专利权人:山东大学
申请日:2023-02-27
公开(公告)日:2023-06-02
公开(公告)号:CN116206019A
主分类号:G06T13/20
分类号:G06T13/20;G06T7/80;G06T7/246;G06V10/75;G06V10/44
优先权:
专利状态码:在审-实质审查的生效
法律状态:2023.06.20#实质审查的生效;2023.06.02#公开
摘要:本发明提供了一种基于第一人称视角视频的动感数据生成方法及系统,获取视频图像信息,确定相机的内部参数;提取相邻视频帧图像的特征点,估计相机运动,根据所获图像特征判断相机是否回到了之前访问过的环境区域,建立回环约束;检测视频中镜头的抖动行为或静止行为,提供特殊效应生成的位置指令;根据不同时刻测量的相机位姿,以及回环检测的信息,对其进行优化,得到全局一致的相机运动轨迹数据;将生成的全局一致的相机运动轨迹数据映射到动感座椅的运动范围上作为主驱动信号,叠加特殊效应生成的位置指令,生成相应的动感数据。本发明处理效率高,且能够使用户在体验过程有更真实的体验。
主权项:1.一种基于第一人称视角视频的动感数据生成方法,其特征是,包括以下步骤:获取视频图像信息,确定相机的内部参数;提取相邻视频帧图像的特征点,估计相机运动,根据所获图像特征判断相机是否回到了之前访问过的环境区域,建立回环约束;检测视频中镜头的抖动行为或静止行为,提供特殊效应生成的位置指令;根据不同时刻测量的相机位姿,以及回环检测的信息,对其进行优化,得到全局一致的相机运动轨迹数据;将生成的全局一致的相机运动轨迹数据映射到动感座椅的运动范围上作为主驱动信号,叠加特殊效应生成的位置指令,生成相应的动感数据。
全文数据:
权利要求:
百度查询: 山东大学 一种基于第一人称视角视频的动感数据生成方法及系统
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。