买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】基于学习权重向量的大模型微调方法、装置、设备及介质_厦门蝉羽网络科技有限公司_202410177508.2 

申请/专利权人:厦门蝉羽网络科技有限公司

申请日:2024-02-08

公开(公告)日:2024-04-16

公开(公告)号:CN117725844B

主分类号:G06F30/27

分类号:G06F30/27;G06N3/0499;G06N3/08

优先权:

专利状态码:有效-授权

法律状态:2024.04.16#授权;2024.04.05#实质审查的生效;2024.03.19#公开

摘要:本发明提供了基于学习权重向量的大模型微调方法、装置、设备及介质,涉及深度学习的大模型技术领域,方法包括:获取待调整的大模型的Transformer模块,所述Transformer模块的核心为自注意力机制;当需要对所述大模型进行微调时,对所述Transformer模块中的k矩阵增加一个可学习的权重向量,对所述Transformer模块中的v矩阵增加一个可学习的权重向量,并经过所述自注意力机制进行处理;在所述自注意力机制处理完毕后,在Transformer模块中增加一个可学习的权重向量lff,输出经过线性层,并根据经过线性层的输出数据获得需要调整的参数量;根据训练样本以及需要调整的参数量对所述大模型进行微调。旨在解决现有微调算法无法与微调基线相匹配,从而在效率和模型质量之间产生了权衡的问题。

主权项:1.一种基于学习权重向量的大模型微调方法,其特征在于,包括:获取物品的数据信息、以及待调整的大模型的Transformer模块,其中,所述Transformer模块的核心为自注意力机制;当需要对所述大模型进行微调时,对所述Transformer模块中的k矩阵增加一个可学习的权重向量,对所述Transformer模块中的v矩阵增加一个可学习的权重向量,并经过所述自注意力机制进行处理,具体为:获取预设的所需向量维度train_dim,根据所述所需向量维度train_dim分别对所述权重向量和权重向量进行定义,其中,所述所需向量维度train_dim与所述自注意力机制中的矩阵维度相对应;将所述权重向量和权重向量初始化为零;在k矩阵中增加所述权重向量时,将所述权重向量与所述k矩阵的矩阵元素对应进行相乘,根据当前所述Transformer模块的输入特征x和缩放系数multiplier对所述Transformer模块的输出特征y进行重新赋值,赋值公式为:y=x1+weightmultiplier,其中,weight为所述权重向量,multiplier为缩放系数,默认赋值为1.0;在v矩阵中增加所述权重向量时,将所述权重向量与所述v矩阵的矩阵元素对应进行相乘,根据当前所述Transformer模块的输入特征x和缩放系数multiplier对所述Transformer模块的输出特征y进行重新赋值,赋值公式为:y=x1+weightmultiplier,其中,weight为所述权重向量,multiplier为缩放系数,默认赋值为1.0;在所述自注意力机制处理完毕后,在所述Transformer模块中增加一个可学习的权重向量lff,输出经过线性层,并根据经过线性层的输出数据获得需要调整的参数量,具体为:获取预设的所需向量维度train_dim,根据所述所需向量维度train_dim对权重向量lff进行定义,其中,所述所需向量维度train_dim与所述自注意力机制中的矩阵维度相对应;将所述权重向量lff初始化为零;在k矩阵中增加所述权重向量lff时,将所述权重向量lff与所述自注意力机制处理后的矩阵元素对应进行相乘,根据当前所述Transformer模块的输入特征x和缩放系数multiplier对所述Transformer模块的输出特征y进行重新赋值,赋值公式为:y=x1+weightmultiplier,其中,weight为所述权重向量lff,multiplier为缩放系数,默认赋值为1.0;根据训练样本以及需要调整的参数量对所述大模型进行微调,生成与所述物品的数据信息相对应的图片。

全文数据:

权利要求:

百度查询: 厦门蝉羽网络科技有限公司 基于学习权重向量的大模型微调方法、装置、设备及介质

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。