申请/专利权人:中山大学
申请日:2020-10-16
公开(公告)日:2021-02-26
公开(公告)号:CN112418225A
主分类号:G06K9/34(20060101)
分类号:G06K9/34(20060101);G06K9/32(20060101);G06K9/62(20060101);G06N3/04(20060101);G06N3/08(20060101)
优先权:
专利状态码:有效-授权
法律状态:2023.07.21#授权;2021.03.16#实质审查的生效;2021.02.26#公开
摘要:本发明提供一种面向地址场景识别的离线文字识别方法,该方法对数据集进行预处理:去除数据集标注文本中无法识别的生僻字,以及该标注文本对应的图像,其中,数据集包括图像和图像对应的标注文本;使用ICDAR2017RCTW数据集对连接预选框网络CTPN进行训练;训练卷积循环神经网络CRNN模型;输入预处理后的图像,使用CTPN定位图像中所有文本的位置,并使用矩形框将文本框出,提供矩形的顶点坐标以及宽高;将输出的文本框坐标输入CRNN,对文本框中的文本进行识别,输出预测文本,提高了地址识别的准确率。
主权项:1.一种面向地址场景识别的离线文字识别方法,其特征在于,包括以下步骤:S1:对数据集进行预处理:去除数据集标注文本中无法识别的生僻字,以及该标注文本对应的图像,其中,数据集包括图像和图像对应的标注文本;S2:使用ICDAR2017RCTW数据集对连接预选框网络CTPN进行训练;S3:训练卷积循环神经网络CRNN模型;S4:输入预处理后的图像,使用CTPN定位图像中所有文本的位置,并使用矩形框将文本框出,提供矩形的顶点坐标以及宽高;S5:将步骤S4中输出的文本框坐标输入CRNN,对文本框中的文本进行识别,输出预测文本。
全文数据:
权利要求:
百度查询: 中山大学 一种面向地址场景识别的离线文字识别方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。