申请/专利权人:浙江工业大学
申请日:2021-07-07
公开(公告)日:2024-03-22
公开(公告)号:CN113554151B
主分类号:G06N3/0464
分类号:G06N3/0464;G06N3/08
优先权:
专利状态码:有效-授权
法律状态:2024.03.22#授权;2021.11.12#实质审查的生效;2021.10.26#公开
摘要:一种基于卷积层间关系的注意力机制方法,首先,通过全局平均池化分别获取前一层和当前层的通道权重信息;然后,利用矩阵乘法计算两个权重向量之间的关系得到关系矩阵;其后,对关系矩阵经过两层1×1卷积层训练;最后,将训练后的关系矩阵进行列平均得到当前层关于前一层的全局权重信息,再作用于当前层的输出以自适应调节输出特征信息的重要性。本发明计算代价小、模型学习能力强。
主权项:1.一种图像分类的基于卷积层间关系的注意力机制方法,其特征在于,实施方法包括以下步骤:1输入为前一层卷积神经网络的输出A∈RH×W×C和当前层的输出A'∈R1H×W×C,分别对两个卷积层的输出进行全局平均池化获分别得到各自的通道权重信息,即x∈W1×1×C和x'∈W11×1×C,其中H和W分别为特征图featuremaps的高和宽,C表示通道的数量;2对获取的两个通道权重信息x,x'进行关系计算,利用矩阵乘法计算当前层每个通道与前一层全部通道的线性关系,当前层的权重向量与前一层的权重向量转置相乘得到卷积层间关系矩阵即x'×xT=M,其中C为通道的数量;3将关系矩阵M输入到两层卷积神经网络中进一步训练,得到其中C为通道的数量;4对训练获得的M'进行列平均处理,得到即将关系矩阵M进行训练再对其列平均得到当前层每个通道关于前一层的全局信息,其中C为通道的数量;5将最终的通道权重向量x”再作用于当前层的输出A',得到其中H和W分别为特征图featuremaps的高和宽,C表示通道的数量。
全文数据:
权利要求:
百度查询: 浙江工业大学 一种基于卷积层间关系的注意力机制方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。