首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明公布】预训练掩码语言模型全流程自动纠偏方法、装置及介质_中国科学院信息工程研究所_202311537725.X 

申请/专利权人:中国科学院信息工程研究所

申请日:2023-11-17

公开(公告)日:2024-05-10

公开(公告)号:CN118013940A

主分类号:G06F40/166

分类号:G06F40/166;G06F40/216;G06F40/289;G06F40/247;G06F16/33

优先权:["20230620 CN 2023107341167"]

专利状态码:在审-实质审查的生效

法律状态:2024.05.28#实质审查的生效;2024.05.10#公开

摘要:本发明公开了一种预训练掩码语言模型全流程自动纠偏方法、装置及介质,属于人工智能下的自然语言处理分支领域。本发明从公共知识库中获取每个主题的短语,基于预训练掩码语言模型MLM筛选出与每个主题的种子短语最相似的多个短语,构成主题短语集合;基于包含多个掩码标记的提示和MLM,计算多token粒度的刻板印象短语的概率分布,并根据概率分布差异计算针对每个输入提示的损失,并获取最大化损失的有偏见的提示;通过最小化针对每个输入提示的损失,对MLM进行微调;利用微调后的MLM对输入的自然语言进行自动纠偏。本发明通过自动化的方式来一定程度减轻大型预训练掩码语言模型的偏见问题,降低人工纠正偏见的数据成本。

主权项:1.一种预训练掩码语言模型全流程自动纠偏方法,其特征在于,包括以下步骤:1定义由多个主题组成的刻板印象,每个主题下具有多个种子短语;从公共知识库中获取每个主题的短语,基于预训练掩码语言模型MLM筛选出与每个主题的种子短语最相似的多个短语,构成主题短语集合;2基于包含多个掩码标记的提示和MLM,计算多token粒度的刻板印象短语的概率分布,并根据概率分布差异计算针对每个输入提示的损失,并获取最大化损失的有偏见的提示;3通过最小化针对每个输入提示的损失,对MLM进行微调;利用微调后的MLM对输入的自然语言进行自动纠偏。

全文数据:

权利要求:

百度查询: 中国科学院信息工程研究所 预训练掩码语言模型全流程自动纠偏方法、装置及介质

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

相关技术
相关技术
相关技术
相关技术