申请/专利权人:之江实验室
申请日:2020-12-17
公开(公告)日:2021-01-19
公开(公告)号:CN112241455A
主分类号:G06F16/35(20190101)
分类号:G06F16/35(20190101);G06N3/04(20060101);G06N3/08(20060101)
优先权:
专利状态码:有效-授权
法律状态:2021.05.04#授权;2021.02.05#实质审查的生效;2021.01.19#公开
摘要:本发明公开了一种基于多层级知识蒸馏的预训练语言模型自动压缩方法及平台,所述方法包括如下步骤:步骤一、构建多层级知识蒸馏,在自注意力单元、隐藏层状态、嵌入层三个不同层级上蒸馏大模型的知识结构;步骤二、训练元学习的知识蒸馏网络,生成多种预训练语言模型的通用压缩架构;步骤三、基于进化算法搜索最佳压缩结构。首先,研究基于元学习的知识蒸馏生成多种预训练语言模型的通用压缩架构;其次,在已训练好的元学习网络基础上,通过进化算法搜索最佳压缩结构,由此得到与任务无关的预训练语言模型的最优通用压缩架构。
主权项:1.一种基于多层级知识蒸馏的预训练语言模型自动压缩方法,包括如下步骤:步骤一、构建多层级知识蒸馏,在自注意力单元、隐藏层状态、嵌入层三个不同层级上蒸馏大模型的知识结构;步骤二、训练元学习的知识蒸馏网络,生成多种预训练语言模型的通用压缩架构;步骤三、基于进化算法搜索最优压缩结构。
全文数据:
权利要求:
百度查询: 之江实验室 基于多层级知识蒸馏预训练语言模型自动压缩方法及平台
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。