
スパイキングニューラルネットワーク(SNN)は、脳における低消費電力・耐障害性情報処理の基盤を成しており、適切な神経形態ハードウェアアクセラレータ上で実装された場合、従来の深層ニューラルネットワーク(DNN)に対する電力効率の高い代替手段となり得る。しかし、コンピュータ上で複雑な計算タスクを解くSNNを実現することは、依然として大きな課題である。近年、エンドツーエンドでSNNを訓練するための標準的手法として、サロゲート勾配(SG)法が登場している。しかしながら、その成功は従来の人工ニューラルネットワーク(ANN)と同様に、シナプス重みの初期化に依存している。ただし、ANNとは異なり、SNNにとって「良い初期状態」とは何かについては、まだ明確な定義が存在しない。本研究では、脳内でよく観察されるフラクチュエーション駆動状態(fluctuation-driven regime)に着想を得て、SNN向けの汎用的な初期化戦略を提案する。具体的には、広く用いられるリーキー・インテグレート・アンド・ファイア(LIF)ニューロンにおいて、フラクチュエーション駆動型の発火を保証するデータ依存型の重み初期化手法を実用的な形で導出する。実証的に、本戦略に従って初期化されたSNNは、SG法を用いた学習において優れた性能を発揮することを示した。この成果は、複数のデータセットおよびSNNアーキテクチャ(全結合型、深層畳み込み型、再帰型、さらにはダイルの法則(Dale's law)に従うより生物学的に現実的なSNNを含む)にわたって一貫して確認された。したがって、フラクチュエーション駆動型初期化は、神経形態工学および計算神経科学における多様なタスクにおいてSNNの学習性能を向上させる、実用的で汎用性が高く、実装が容易な戦略であることが示された。