申请/专利权人:华南理工大学
申请日:2022-05-23
公开(公告)日:2022-09-20
公开(公告)号:CN115082308A
主分类号:G06T3/40
分类号:G06T3/40;G06V10/40;G06V10/774
优先权:
专利状态码:在审-实质审查的生效
法律状态:2022.10.11#实质审查的生效;2022.09.20#公开
摘要:本发明公开了基于多尺度局部自注意力的视频超分辨率重建方法和系统。所述方法包括:S1:构建低分辨率视频帧序列数据集;S2:通过光流预测网络预测低分辨率视频帧序列输入中相邻帧之间的双向光流信息;S3:构建视频超分辨率重建网络,视频超分辨率重建网络包括特征提取模块、多尺度深层特征提取模块和上采样重建模块;S4:基于数据集和所述双向光流信息训练视频超分辨率重建网络;S5:将需要超分辨率重建的视频序列输入到训练后得到的视频超分辨率重建网络中,即可得到超分辨率重建后的视频序列。本发明能够减少网络的整体计算量,并通过光流预测网络强化信息融合,具备良好的重建效果。
主权项:1.基于多尺度局部自注意力的视频超分辨率重建方法,其特征在于,包括以下步骤:S1:构建低分辨率视频帧序列数据集,并划分为训练集和测试集;S2:通过光流预测网络预测低分辨率视频帧序列输入中相邻帧之间的双向光流信息;S3:构建视频超分辨率重建网络,视频超分辨率重建网络包括特征提取模块、多尺度深层特征提取模块和上采样重建模块,其中,特征提取模块用于从输入的低分辨率视频帧序列中提取视频帧的浅层特征,多尺度深层特征提取模块用于基于浅层特征得到深层特征图,上采样重建模块用于重建低分辨率视频序列,得到高分辨率视频序列;S4:基于数据集和所述双向光流信息训练视频超分辨率重建网络;S5:将需要超分辨率重建的视频序列输入到训练后得到的视频超分辨率重建网络中,即可得到超分辨率重建后的视频序列。
全文数据:
权利要求:
百度查询: 华南理工大学 基于多尺度局部自注意力的视频超分辨率重建方法及系统
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。