近年来,深度学习领域取得了巨大的进步,特别是在自然语言处理(NLP)和计算机视觉等领域。
现有的深度学习模型,如MLP和Transformer,在理解周期性现象时存在缺陷。
周期性是指某些现象或函数在规律的间隔内重复出现的特性,是最基本和重要的特性之一。
因此,建模周期性对于提高模型的预测和推理能力至关重要。
Transformer架构自《Attention Is All You Need》本文发表以来,彻底改变了NLP领域,并对AI研究产生了深远影响。
Transformer架构并不完美,其在外推性、周期性建模等方面存在缺陷。
特别是在面对简单的正弦函数时,现有基础模型难以理解其中的周期性规律,甚至在外推时表现出完全失控的状态。
为了解决Transformer等现有模型的缺陷,北京大学计算机学院的博士生董益宏和李戈教授团队提出了一种新型网络架构——FAN(Fourier Analysis Networks)。
FAN通过引入傅里叶原理,将周期性信息直接嵌入网络的结构中,使模型更自然地捕捉和理解数据中的周期性模式。
实验表明,FAN在周期性建模上的表现显著优于现有模型,并且在符号公式表示、时间序列预测和语言建模等实际任务中也表现出色。
FAN与MLP和Transformer等模型的根本区别在于其引入傅里叶原理进行周期性建模。
傅里叶原理是一种成熟的数学工具,能够高效地分析和理解周期性现象。
因此,FAN能够更准确地预测周期模式,并且使用更少的参数和计算需求。
FAN遵循通用近似原理,具有强大的函数拟合能力,能够同时处理周期性和非周期性数据。
FAN的应用价值体现在其能够弥补现有模型的缺陷,提高模型在周期性任务上的性能。
未来,FAN可以应用于图像识别、自然语言处理等领域,为这些领域提供更准确的建模和预测能力。
结合FAN的改良Transformer模型在时间序列预测和语言建模任务中表现出色,为相关领域的研究提供新的思路和方法。
李戈老师一直鼓励实验室的同学思考现有基础模型架构的局限性,并探索更理想的架构。
在这种思考下,我们发现了周期性建模的重要性以及现有模型的缺陷。
因此,我们决定研究FAN网络架构,希望通过引入傅里叶原理来解决现有模型的缺陷,提高模型的性能。
本文通过介绍Transformer架构的挑战和现状,阐述了FAN的提出和核心思想。
FAN通过引入傅里叶原理进行周期性建模,显著提高了模型在周期性任务上的性能。
未来,FAN可以应用于更多领域,为相关领域的研究提供新的思路和方法。
最后,本文介绍了研究缘起,旨在解决现有模型的缺陷和提高模型的性能。
本文地址: https://www.gosl.cn/hlzxwz/f70fb4155a5fed23c5a9.html
上一篇:榜单上的新星闪耀,谁是你心动的对象?...