随着机器学习,尤其是深度学习的快速发展,大模型在许多领域展现出了惊人的性能。
这也带来了一系列新的挑战,其中之一便是如何有效地管理模型所学习的知识。
近年来,关于大模型的遗忘问题成为了研究的热点。
特别是在涉及版权、隐私等敏感领域,当模型需要“忘记”某些特定知识时,现有的反学习技术面临巨大挑战。
最近,来自宾夕法尼亚州立大学、哈佛大学以及亚马逊团队的一项新研究在这一领域取得了突破性进展。
反学习,或者称为机器遗忘,旨在从已经训练好的模型中移除特定知识。
现有的反学习技术主要包括梯度上升和负向偏好优化两大类。
这些技术在实施遗忘过程中通常会受到多种因素的影响,其中量化是一个重要的环节。
量化过程即将模型的权重进行特定的数学变换,这一过程可能导致被遗忘的知识重新显现。
特别是在使用较低位数的量化(如4-bit量化)时,这种现象更为明显。
在这项研究中,研究者们首先对六种主要的反学习方法进行了评估,这些方法是结合NPO、GA策略,以及在保留集上进行梯度下降或最小化KL散度等策略形成的组合。
实验结果显示,在经过量化后,这些反学习方法的遗忘效果出现灾难性失败。
特别是在使用4-bit量化时,大部分被遗忘的知识都能通过简单的量化操作恢复。
为了解决这个问题,研究者们深入分析了现有反学习技术和量化之间的关系。
他们发现,现有反学习法为了保持模型效用而使用较小的学习率和效用约束,导致模型权重变化很小。
在量化过程中,这种微小的变化使得原模型和遗忘后模型的权重很容易被映射到相同的离散值,从而恢复了被遗忘的知识。
针对这个问题,研究者们提出了一种名为“基于显著性的反学习框架(SURE)”的新策略。
该策略通过构建模块级别的显著性图来指导遗忘过程。
SURE策略能识别并选择与遗忘数据最相关的模型部分,然后对这些部分使用较大的学习率进行更新,同时尽量减少对其他功能的影响。
这种策略能在一定程度上减少量化后知识恢复的风险。
实验在NEWS(C新闻文章)和BOOKS(哈利波特系列)等基准数据集上进行,使用了四个评估指标来全面评估模型的性能。
实验结果显示,SURE策略在防止量化后遗忘知识恢复方面表现出色。
同时,研究者们还探讨了SURE策略中不同阈值对遗忘性能的影响,发现适度的阈值可以在遗忘性能和模型效用之间取得平衡。
本研究揭示了现有反学习技术在面对模型量化时的挑战,并提出了一种新的策略——基于显著性的反学习框架(SURE)。
该策略能有效减少量化后知识恢复的风险,为机器遗忘领域的研究提供了新的思路。
本研究还存在一些局限性和未解决的问题,未来研究可以进一步探讨如何更好地结合反学习技术和量化技术,以更有效地管理模型的知识。
[本文链接](具体链接待上传后补充)
[相关讨论链接](具体链接待上传后补充) 本文全文及代码可通过以下链接获取:[本文链接](最新本文编号),同时代码已在github上公开(GitHub链接)。感兴趣的同学可以查阅原本文以获取更多细节和深入的理解。
本文地址: https://www.gosl.cn/hlzxwz/b1c14c3500488d9e0148.html
上一篇:马斯克新官上任引发新一轮风波...