买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明公布】基于深度神经网络和图卷积网络的视频行人识别方法_天津大学_202011153198.9 

申请/专利权人:天津大学

申请日:2020-10-26

公开(公告)日:2021-01-05

公开(公告)号:CN112183464A

主分类号:G06K9/00(20060101)

分类号:G06K9/00(20060101);G06K9/62(20060101);G06N3/08(20060101);G06N3/04(20060101)

优先权:

专利状态码:失效-发明专利申请公布后的驳回

法律状态:2024.01.19#发明专利申请公布后的驳回;2021.01.22#实质审查的生效;2021.01.05#公开

摘要:本发明属于计算机视觉的技术领域,具体涉及基于深度神经网络和图卷积网络的视频行人识别方法,引入了一种图卷积网络的模型来捕获多标签图像识别的标签相关性,这种模型将对象分类器视为要学习的一组独立参数向量,通过基于图卷积网络的映射函数从先前的标签表示中学习相互依赖的对象分类器,然后,将生成的分类器应用于另一个子网生成的图像表示,以实现端到端训练。本发明能利用视频的时序特征,提高了行人属性识别的准确率。

主权项:1.基于深度神经网络和图卷积网络的视频行人识别方法,其特征在于,包括如下步骤:步骤一、输入行人图像序列;步骤二、选择ResNet-50作为骨干模型,提取帧级空间特征;步骤三、识别是否为运动姿态属性或ID属性,若是运动姿态属性,则进行步骤四;若是ID属性,则进行步骤五;步骤四、将空间特征向量作为每个属性分类器中的时间注意模块的输入,并生成时间注意向量,然后,将时间注意力向量加权每个帧的空间特征,并且将生成用于识别特定属性的图像序列的最终特征向量,最后,将最终特征向量馈入全连接层以实现属性分类结果。步骤五、将空间特征向量作为每个属性分类器中的时间注意模块的输入,并生成大小为n×1的时间注意向量,然后,将时间注意力向量加权每个帧的空间特征,并且将生成用于识别特定属性的图像序列的最终特征向量,最后,将图卷积网络引入到属性分类器中,以执行半监督分类。

全文数据:

权利要求:

百度查询: 天津大学 基于深度神经网络和图卷积网络的视频行人识别方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。