
摘要
我们证明了神经常微分方程(Neural ODEs)学习到的表示能够保持输入空间的拓扑结构,并进一步证明了这一特性意味着存在某些函数是神经常微分方程无法表示的。为了解决这些局限性,我们引入了增强型神经常微分方程(Augmented Neural ODEs),该模型不仅具有更高的表达能力,而且在实验中表现出更高的稳定性、更好的泛化能力和更低的计算成本。

我们证明了神经常微分方程(Neural ODEs)学习到的表示能够保持输入空间的拓扑结构,并进一步证明了这一特性意味着存在某些函数是神经常微分方程无法表示的。为了解决这些局限性,我们引入了增强型神经常微分方程(Augmented Neural ODEs),该模型不仅具有更高的表达能力,而且在实验中表现出更高的稳定性、更好的泛化能力和更低的计算成本。