买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明公布】一种基于CPU+GPU混合编码的帧内编码预测方法_杭州当虹科技股份有限公司_201910903086.1 

申请/专利权人:杭州当虹科技股份有限公司

申请日:2019-09-24

公开(公告)日:2020-01-10

公开(公告)号:CN110677646A

主分类号:H04N19/103(20140101)

分类号:H04N19/103(20140101);H04N19/176(20140101);H04N19/42(20140101)

优先权:

专利状态码:有效-授权

法律状态:2022.01.11#授权;2020.02.11#实质审查的生效;2020.01.10#公开

摘要:本发明公开了一种基于CPU+GPU混合编码的帧内编码预测方法。它具体包括如下步骤:当编码器开始编码一帧Intra帧时,获得需要编码的Intra帧数据copy到GPU上;在GPU上面创建n个CUDA流处理器,每个流处理器负责一个尺寸的Intra预测模式;每个流处理器分别对整个图像的某个块尺寸的各个模式进行处理,基于输入帧的数据以及相应的模式获得预测块数据,当前帧的编码块数据与预测块数据相减得到残差块数据,对残差块数据做哈达玛变换计算出每个残差块的Satd,GPU计算完所有模式的Satd后,把每个预测块的最优N个模式以及对应的Satd传回到CPU;用CPU来进一步确定最佳模式。本发明的有益效果是:重复利用GPU强大的并行计算能力,结合CPU较好的串行计算能力,达到高效快速的Intra帧编码。

主权项:1.一种基于CPU+GPU混合编码的帧内编码预测方法,其特征是,具体包括如下步骤:1当编码器开始编码一帧Intra帧时,获得需要编码的Intra帧数据时,通常为YUV数据,先把YUV数据copy到GPU的globalmemory上;2在GPU上面创建n个CUDA流处理器,每个流处理器负责一个尺寸的Intra预测模式,n为所有Intra预测块大小的个数;3每个流处理器分别对整个图像的某个块尺寸的各个模式进行处理,首先基于输入帧YUV的数据而不是重建帧数据以及相应的模式获得预测块数据,然后通过当前帧的编码块数据与预测块数据相减得到残差块数据,进而对残差块数据做哈达玛变换,进而计算出每个残差块的Satd,GPU计算完所有模式的Satd后,把每个预测块的最优N个模式以及对应的Satd传回到CPU;4GPU计算完所有的预测块的所有预测模式的Satd后,由于这是近似值,需要用CPU来进一步确定最佳模式。

全文数据:

权利要求:

百度查询: 杭州当虹科技股份有限公司 一种基于CPU+GPU混合编码的帧内编码预测方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。