申请/专利权人:杭州电子科技大学
申请日:2023-11-21
公开(公告)日:2024-04-12
公开(公告)号:CN117880482A
主分类号:H04N13/282
分类号:H04N13/282
优先权:
专利状态码:在审-实质审查的生效
法律状态:2024.04.30#实质审查的生效;2024.04.12#公开
摘要:本发明公开了面向3D视频的时间空间双维度帧合成方法。本发明首先对输入视频中的每帧原始输入图像通过特征提取网络提取特征信息,生成多个不同尺度下的特征图;然后对输入视频在时间维度进行插帧操作,生成时间维度插帧图像,在视点维度进行插帧操作,生成视点维度合成图像;最后通过维度融合网络,将原始输入图像以及对应的特征图、生成的光流信息和掩膜、时间维度插帧图像和视点维度合成图像进行融合,生成同时考虑两个维度信息的高质量生成帧。本发明结合时间、视点双维度信息,生成高质量的中间合成帧,保证了整体网络的并行度,避免了使用不同网络时造成的时延不同步在降低计算冗余的情况下克服了深层网络丢失图像原始信息的问题。
主权项:1.面向3D视频的时间空间双维度帧合成方法,其特征在于,该方法具体是:步骤1对输入视频中的每帧原始输入图像通过特征提取网络提取特征信息,每帧原始输入图像生成多个不同尺度下的特征图;步骤2对输入视频在时间维度进行插帧操作,生成时间维度插帧图像,具体是:2-1首先前、后两帧图像经过TimeNet网络生成前一帧到目标帧和后一帧到目标帧的光流,以及一个掩膜;2-2利用生成的光流信息,将输入的前、后两帧图像绘制到目标帧的位置;2-3通过掩膜对绘制的图像进行融合,生成时间维度插帧图像;步骤3对输入视频在视点维度进行插帧操作,生成视点维度合成图像,具体是:3-1首先左、右视点的两帧图像经过ViewNet网络生成左方视点帧到目标帧和右方视点帧到目标帧的光流,以及一个掩膜;3-2利用生成的光流信息,将输入的左、右视点两帧图像绘制到目标帧的位置;3-3通过掩膜对绘制的图像进行融合,生成视点维度合成图像;步骤4通过维度融合网络,将原始输入图像以及对应的特征图、步骤2生成的光流信息和掩膜、步骤3生成的光流信息和掩膜、时间维度插帧图像和视点维度合成图像进行融合,生成同时考虑两个维度信息的高质量生成帧。
全文数据:
权利要求:
百度查询: 杭州电子科技大学 面向3D视频的时间空间双维度帧合成方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。