买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】基于残差收缩及双向长短期记忆网络的调制识别方法_桂林电子科技大学_202111593241.8 

申请/专利权人:桂林电子科技大学

申请日:2021-12-23

公开(公告)日:2024-04-05

公开(公告)号:CN114239749B

主分类号:G06F18/214

分类号:G06F18/214;G06N3/0442;G06N3/049;G06N3/084

优先权:

专利状态码:有效-授权

法律状态:2024.04.05#授权;2022.04.12#实质审查的生效;2022.03.25#公开

摘要:本发明公开了一种基于残差收缩及双向长短期记忆网络的调制识别方法,其特征在于,包括如下步骤:1)信号预处理;2)构建基于残差收缩及双向长短期记忆网络训练模型;3)训练网络;4)分类识别。这种方法训练特征参数少、步骤简洁、复杂度低,无需对信号进行复杂的预处理及人工特征提取,省去了人为提取特征的时间成本,适用范围广、抗噪性能好、识别精度高。

主权项:1.一种基于残差收缩及双向长短期记忆网络的调制识别方法,其特征在于,包括如下步骤:1信号预处理:提取公开数据集RML2016.10a中的时域IQ信号,按信噪比和数据集中的11种信号进行划分,每个样本包含128个采样点,初始样本维度为2×128,将维度转换为128×2,转换后数据集大小为220000×128×2,其中70%作为训练集,30%作为测试集,并标注各样本的调制类别标签;2构建基于残差收缩及双向长短期记忆网络训练模型:基于残差收缩及双向长短期记忆网络训练模型设有卷积模块、BiLSTM模块、残差收缩模块以及输出模块,各模块构建及参数设置如下:卷积模块设有一维卷积层Conv1D以及池化层MaxPool1D,Conv1D的卷积核个数为64、卷积核尺寸为8、激活函数为relu;BiLSTM模块设有两个双向长短期记忆网络BiLSTM,输入序列维度均为50,并连接Dropout层、Dropout率为0.5;残差收缩模块设有第一卷积层Conv2D、第二卷积层Conv2D,第一卷积层Conv2D和第二卷积层Conv2D的卷积核个数均为50、尺寸为3×3、步长为2,第一卷积层Conv2D和第二卷积层Conv2D的特征传递及处理结构与传统残差网络种的残差块相同,采用软阈值法对卷积后的特征进行过滤,在第二卷积层处构造一个阈值获取子网络,将传统残差模块改进为残差收缩模块,软阈值化如公式1所示: 公式1中,x表示输入特征,y表示输出特征,α为阈值,软阈值函数将接近于0的特征置为0,实现在滤除噪声相关信息的同时保留有用的复数特征,软阈值化后残差项输出为fAl,将特征各通道下的数值与各通道对应阈值进行比较得到去噪结果,与残差项fAl相加即可得到最终输出特征;输出模块设有Batchnormalization层、Activation层、GlobalAveragePooling2D层,最后采用Dense层设置神经元个数为11对应11种调制类型、activation为softmax,采用库函数Model设置输出和输入进行网络建立,Adam为梯度下降优化算法,loss函数为交叉熵损失函数categorical_crossentropy如公式2所示; 其中,y为期望输出,a为神经元实际输出;3训练网络:对步骤2构建好的网络模型进行训练,训练步骤如下:3-1训练集样本经步骤1处理后以128×2的形式输入网络,batchsize为64,首先经过卷积模块提取特征并池化后输出维度121×64;3-2BiLSTM模块将步骤3-1提取的特征进行记忆及筛选提取,经过两层BiLSTM网络后得到特征输出维度为60×50;3-3采用Reshape函数将步骤3-2的输出维度转换为60×50×1后进入残差收缩模块,经残差收缩模块处理后得到特征输出维度为60×50×60;3-4经过输出模块将3D张量转换为2D张量并由Dense层分为11个输出神经元;3-5epochs设置为100,采用提前中止机制,若迭代次数大于100或连续10次训练集loss值不下降则训练结束,保存权值数据;4采用以上训练好的残差收缩及双向长短期记忆网络模型对数据进行分类识别。

全文数据:

权利要求:

百度查询: 桂林电子科技大学 基于残差收缩及双向长短期记忆网络的调制识别方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

相关技术
相关技术
相关技术
相关技术