买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明公布】一种新的用于视觉识别的CNN和Transformer混合神经网络结构方法与系统_济南大学_202410051371.6 

申请/专利权人:济南大学

申请日:2024-01-15

公开(公告)日:2024-04-02

公开(公告)号:CN117808044A

主分类号:G06N3/0455

分类号:G06N3/0455;G06N3/0464;G06N3/082;G06V10/82

优先权:

专利状态码:在审-实质审查的生效

法律状态:2024.04.19#实质审查的生效;2024.04.02#公开

摘要:卷积神经网络(CNNs)和VisionTransformers(ViTs)是计算机视觉领域两大主流框架。CNNs通过卷积学习局部特征,参数少、复杂度低。ViTs通过自注意机制学习全局依赖,但计算冗余问题显著。头部交互问题鲜有人关注,限制其潜力。为解决问题,提出HybridFormer,包含局部卷积块(LCB)和全局变压器块(GTB)。LCB用多核卷积注意力提取局部多尺度特征,GTB用交叉头自注意学习全局上下文。HybridFormer整合改进卷积和自注意,平衡冗余和依赖,高效表示学习。实验证明HybridFormer在多视觉任务上达最先进水平,包括图像分类、目标检测和语义分割等。

主权项:1.一种新的用于视觉识别的CNN和Transformer混合神经网络结构方法与系统,其特征在于,包括:设计局部卷积块LCB作为混合神经网络HybridFormer的关键构建块之一,实现神经网络提取图像特征时注重局部信息,设计全局Transformer块GTB作为混合神经网络HybridFormer的关键构建块之一,实现神经网络提取图像特征时注重全局信息,LCB采用Transformer格式的新型多核卷积注意力MKCA来捕获局部多尺度特征表,GTB开发了一种新的跨头自注意力CHSA来学习全局上下文特征表示;堆叠多个LCB和GTB网络模块构成神经网络HybridFormer,即为一种新的用于视觉识别的CNN和Transformer混合神经网络结构方法。

全文数据:

权利要求:

百度查询: 济南大学 一种新的用于视觉识别的CNN和Transformer混合神经网络结构方法与系统

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。