
摘要
超复数神经网络通过利用克利福德代数(Clifford algebras)的性质,已在保持优异性能的同时显著减少了模型的总体参数量。近期,超复数线性层进一步通过引入高效的参数化克罗内克积(Kronecker products)得到了优化。本文中,我们定义了超复数卷积层的参数化方法,并提出了一类轻量级且高效的大型超复数神经网络家族——参数化超复数神经网络(Parameterized Hypercomplex Neural Networks, PHNNs)。该方法能够直接从数据中学习卷积规则与滤波器的组织结构,无需依赖预先严格设定的域结构。PHNNs 具有高度灵活性,可在任意用户自定义或可调的域中运行,涵盖从一维到 $n$ 维的多种情形,且不依赖于是否预设代数规则。这种高度可塑性使得模型能够在其自然域中处理多维输入,而无需像四元数神经网络在处理三维输入(如彩色图像)时那样额外引入维度。因此,所提出的 PHNN 家族在与实数域对应模型相比时,其自由参数数量仅为后者的 $1/n$。我们通过在多种图像数据集和音频数据集上的实验,验证了该方法在多个应用领域的广泛适用性,结果表明其性能优于传统的实值和四元数值模型。完整代码已开源,地址为:https://github.com/eleGAN23/HyperNets。