ハードウェアとソフトウェアの協設計でエッジデバイスでの AI 実行を効率化
ミシガン大学の研究チームが、エッジデバイス上で AI を効率的に実行するための新しいハードウェアとソフトウェアの共同設計を開発し、Nature Communications に発表しました。この手法は、エネルギー効率を向上させ、遅延を削減することで、動画やセンサーデータなどの連続ストリームのリアルタイム処理を可能にします。これにより、スマートフォン、補聴器、自動運転車のカメラなどのローカル端末で高性能な AI を直接動作させることが実現します。 研究チームは、ChatGPT などの Transformer モデルに代わる最先端の「状態空間モデル(SSM)」を、メモリ内計算アーキテクチャに初めてマッピングしました。従来のメモリ内計算システムはエネルギー効率は高いものの、複雑な計算には適していませんでした。しかし、SSM の全演算をデバイスの物理特性で効率的に実装できるため、この組み合わせが最適な解決策となることが示されました。 この共同設計の革新点は、ハードウェアとソフトウェアの両側から非効率性を解消した点にあります。まずソフトウェア側では、従来の SSM が複雑数を使用していたためチップの負担が大きかったのを、実数のみを使用するようにモデルを調整しました。これにより、メモリセルが直接データを表現できるようになり、効率が大幅に向上しました。また、固定された減衰率をブロック全体に設定することで、長すぎる入力のメモリ不足を防ぎ、システムが古いデータを忘れ、新しいデータを受け入れる仕組みを最適化しました。 ハードウェア側では、標準的な 65 ナノメートル CMOS プロセスで製造された抵抗変化メモリ(RRAM)の交差配列を用いています。ここでは、タングステン酸化物メモリスタの厚さを変えることで、異なる減衰率を実現し、モデルの短期記憶の調整を物理的に可能にしました。実験の結果、この設計は連続イベントシーケンスを高いエネルギー効率で処理し、理想的な数学的出力からわずかな誤差(4.6 ビット差)しか出さず、従来のデジタルハードウェアよりも遅延と消費電力が大幅に削減されました。 研究者たちは、通常はソフトウェアからハードウェアへ移行する際に精度が低下する問題を回避し、高精度を維持しながら消費電力を削減することに成功したと述べています。これは、状態空間モデルとニューロモルフィックハードウェアが自然な相性を示す最初の事例であり、あらゆる場所で動作する高効率なハードウェアネイティブな AI への道を開く画期的な成果です。
