申请/专利权人:福州大学
申请日:2024-01-31
公开(公告)日:2024-04-26
公开(公告)号:CN117934848A
主分类号:G06V10/26
分类号:G06V10/26;G06V20/70;G06V20/10;G06V10/10;G06V10/40;G06V10/80;G06V10/77;G06V10/771;G06V10/82;G06N3/0464;G06N3/048;G06N3/08
优先权:
专利状态码:在审-实质审查的生效
法律状态:2024.05.14#实质审查的生效;2024.04.26#公开
摘要:本发明涉及一种面向多源数据多区域尺度协同高分遥感图像语义分割方法。首先将经数据增强的多源高分光学图像和nDSM样本图像对分别输入到网络的高分空间分支、高分语义分支和nDSM空间分支,然后将两个数据源图像的空间特征进行拼接融合。最后,将融合特征经语义分割头上采样得到最终的分割结果。本发明的模型能使网络对于特征丰富,融合后的特征由于有nDSM图像的高程信息互补,缓解了高分光学图像中光谱混淆以及高分遥感图像固有的类内差异大,类间差异小造成语义分割难的问题。将融合特征应用于语义分割网络,相比已有的单源可见光图像分割方法和多源nDSM分割方法,该发明方法能够有效提高语义分割精度。
主权项:1.面向多源数据多区域尺度协同高分遥感图像语义分割方法,其特征在于,包括以下步骤:步骤S1:首先对数据集的高分光学图像和nDSM图像样本对进行基于随机拼接的数据增强,得到增强数据集;步骤S2:将增强数据集中的多源样本对输入多区域多尺度协同语义分割网络模型MRMSCNet中,进行三分支特征提取;步骤S3:将步骤2中MRMSCNet的三个分支的不同特征输入到协同注意力特征融合模块CAFFM中;步骤S4:将步骤S3输出的融合特征进行上采样得到最终的语义分割结果。
全文数据:
权利要求:
百度查询: 福州大学 面向多源数据多区域尺度协同高分遥感图像语义分割方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。