ニューラルネットが学習するマンデルブロ集合:多スケールフーリエ特徴量で解き明かす無限の自己相似構造
人工知能がマンデルブロ集合を学習できるのか?――この問いに挑んだ研究では、シンプルなニューラルネットワークが、複雑なフラクタル構造をどのように再現できるかを明らかにしている。マンデルブロ集合は、複素平面における反復計算 ( z_{n+1} = z_n^2 + c )(初期値 ( z_0 = 0 ))によって定義される、無限に細かい構造を持つ美しいフラクタルである。この集合を学習させるには、まず「何を予測するか」を明確にする必要がある。直接的な二値分類(属する/属さない)ではなく、逃げるまでの反復回数を滑らかにした連続値を出力とする回帰問題に変換することで、学習を安定化させた。 データ生成には、集合の境界付近に焦点を当てたサンプリング戦略を採用。境界付近は微小な変化でも分類結果が変わるため、情報量が高く、効率的な学習に不可欠。一方で、通常の深層多層パーセプトロン(MLP)では、低周波成分を先に学習する「スペクトルバイアス」 の問題により、境界付近の細かい構造を再現できず、結果としてぼやけた画像に終わってしまう。 そこで登場するのが「ガウスフーリエ特徴量(Gaussian Fourier Features)」。これは入力座標を複数の周波数帯にわたって三角関数変換することで、ネットワークが高周波成分をより簡単に学習できるようにする手法。特に、マルチスケールのガウスフーリエ特徴量を用いることで、異なるスケールのフラクタル構造を同時に捉えることが可能に。これにより、ネットワークは初期には全体像を学び、その後徐々に細部まで再現するようになる。 実験結果では、フーリエ特徴量を使用したモデルは、境界付近の細いフィラメントや複雑なパターンまで正確に再現。一方、原始的な座標をそのまま入力したモデルは、細部がぼやけたまま学習が停滞する。これはネットワークの容量やデータ量の問題ではなく、入力表現の違いが決定的な影響を与えることを示している。 結論として、フラクタルのような高周波成分が支配的な関数を再現する際、ネットワークの構造よりも「入力のエンコーディング」が重要であることが明らかになった。このアプローチは、コンピュータグラフィックスや物理情報学習など、座標に基づく関数近似に広く応用可能。マンデルブロ集合は、AIが「どのように世界を理解するか」を学ぶための極めて洗練された試験台となっている。
